Fray Ismael Leonardo Ballesteros Guerrero, O.P. Decano de División de Arquitectura e Ingenierías, Universidad Santo Tomás Seccional Tunja

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Fray Ismael Leonardo Ballesteros Guerrero, O.P. Decano de División de Arquitectura e Ingenierías, Universidad Santo Tomás Seccional Tunja"

Transcripción

1

2 Directivos Fray Ismael Leonardo Ballesteros Guerrero, O.P. Decano de División de Arquitectura e Ingenierías, Universidad Santo Tomás Seccional Tunja Mg. Ing. Carlos Rafael Lara Mendoza, Decano Facultad de Ciencias e Ingeniería., Universidad de Boyacá Ph.D. Ing. John Alexander Bohada Jaime, Decano Facultad de Ingeniería, Fundación Universitaria Juan de Castellanos Dra. Luz Martha Vargas de Infante Directora UNAD ZCBOY Zona Centro Boyacá, Universidad Nacional Abierta y a Distancia Editor Ing. Jorge Gabriel Hoyos Pineda Msc. Decano Facultad de Ingeniería de Sistemas, Universidad Santo Tomás Seccional Tunja Comité Editorial Msc. Ing. Carmen Inés Báez Pérez, Directora del programa de Ingeniería de Sistemas, Universidad de Boyacá Msc. Ing. Iván Andrés Delgado González, Director del programa de Ingeniería de Sistemas, Fundación Universitaria Juan de Castellanos Msc. Ing. Leonardo Bernal Zamora, Tutor especializado CEAD Tunja, Universidad Nacional Abierta y a Distancia Comité de Árbitros: JORGE ENRIQUE RODRÍGUEZ Magister en Ingeniería de Software DIEGO JOSÉ LUIS BOTIA VALDERRAMA PhD(c) en Ingeniería Electrónica MIGUEL ÁNGEL LEGUIZAMON PÁEZ Magister en Ciencias de la Información y las Comunicaciones CLARA PATRICIA AVELLA IBÁNEZ Magíster en Ingeniería de Sistemas y Computación JOHN ALEXANDER BOHADA JAIME Ph.D en Ingeniería del Software EDWARD WILDER CARO ANZOLA PhD (c) en Ingeniería y Ciencia de los Materiales JAVIER ANTONIO BALLESTEROS RICAURTE Magíster en Ciencias Computacionales LUZ SANTAMARÍA GRANADOS Magister en Ciencias de la Información y las Comunicaciones con énfasis en Sistemas de Información

3 ADOLFO ÁVILA BARÓN Magister en Ingeniería CARMENZA MONTAÑEZ TORRES Magister en Dirección Estratégica de TI JOSÉ RICARDO CASALLAS GUTIÉRREZ Magister en Ingeniería Electrónica y de Computadores WILLIAM FABIÁN CHAPARRO BECERRA Magister en Telemática FREDY ANDRÉS APONTE NOVOA Magister en Software Libre con especialidad en desarrollo de aplicaciones LEONARDO BERNAL ZAMORA Magister en Ciencias Computacionales con Énfasis en Redes y Comunicaciones FRANCISCO A. VARGAS BERMÚDEZ Magíster en Ciencias de la Información y las Comunicaciones con Énfasis en Teleinformática JOSÉ MIGUEL HERRÁN SUÁREZ Maestría en Software Libre JUAN CARLOS POVEDA D OTERO Magister en Informática MARÍA CONSUELO RODRÍGUEZ NIÑO Maestría en TICs Aplicadas a la Educación WILMAR YOVANY ROJAS MORENO Magister en Dirección Estratégica Especialidad Telecomunicaciones ALEXANDER BARINAS LÓPEZ Magister (c) en Tecnología Informática MARISOL MONROY RODRÍGUEZ Magister en Ciencias de la Información y las Comunicaciones DANIEL ENRIQUE ZAMBRANO ARROYO Master of Business Administration MAURICIO OCHOA ECHEVERRÍA Magíster(c) en Ciencias de la Información y las Comunicaciones con Énfasis en Teleinformática LAURA ALEJANDRA MARTÍNEZ TEJADA Magister(c) en Tecnología Informática ERIKA MARÍA SANDOVAL VALERO Especialista en Entornos Virtuales de Aprendizaje JUAN FRANCISCO MENDOZA MORENO Magíster en Software Libre JUAN FEDERICO GÓMEZ ESTUPIÑAN Magíster(c) en Ciencias de la Información y las Comunicaciones con Énfasis en Teleinformática CAMILO ERNESTO PARDO BEAINY Magister(c) en Ingeniería Electrónica FREY ALFONSO SANTAMARÍA BUITRAGO Especialista en Telemática JULIÁN ALBERTO MONSALVE PULIDO Magíster en Software Libre ANDREA LILIANA FAGUA FAGUA HELENA ALEMÁN NOVOA Especialista en Redes de Alta Velocidad y Ingeniera de Sistemas Especialista en. Distribuidas Pedagogía

4

5 CONTENIDO PRESENTACIÓN 6 1. APLICACIÓN DE LA WEB 3D EN DISPOSITIVOS MÓVILES 7 Pág. 2. EVALUACIÓN DE SISTEMAS DE ADMINISTRACIÓN DEL APRENDIZAJE (LMS) EN 3D COMPARACIÓN DE DISPOSITIVOS BIOMÉDICOS EN COLOMBIA INTELIGENCIA DE NEGOCIOS ESPACIALES ORIENTADA AL ANÁLISIS DE DATOS SOBRE PRUEBAS SABER 11 DEL INSTITUTO COLOMBIANO PARA LA EVALUACIÓN DE LA EDUCACIÓN A NIVEL NACIONAL 5. FACTORES CLAVES PARA LA EDUCACIÓN: LAS ACTITUDES, INTERESES Y HABILIDADES DE UN ESTUDIANTE, CONSEGUIDAS A TRAVÉS DE LAS TIC 6. PROPUESTA DE UNA ESTRATEGIA DE MEDICION PARA LA CARACTERIZACION DE PARAMETROS S, EN DISPOSITIVOS RF Y MICROONDAS EN BANDA 300KHZ HASTA 8 GHZ 7. DISEÑO DE UN CONTROLADOR DIFUSO PARA ASIGNACIÓN DINÁMICA DE ANCHO DE BANDA EN UN SWITCH 8. ANÁLISIS FORENSE EN DISPOSITIVOS MÓVILES CON SISTEMA OPERATIVO ANDROID: ESTADO DEL ARTE 9. TENDENCIAS ACERCA DEL ANÁLISIS DE DATOS NO ESTRUCTURADOS EN INTERNET, PARA SISTEMAS EN TIEMPO REAL, DURANTE LOS ÚLTIMOS 5 AÑOS 10. INTELIGENCIA DE NEGOCIOS ESPACIAL PARA EL DESARROLLO DE PROCESOS DE LAS ORGANIZACIONES 11. EVOLUCIÓN DE ESTRATEGIAS EN JUEGOS NO COOPERATIVOS USANDO PROGRAMACIÓN GENÉTICA GRAMATICAL 12. PROPUESTA DE UNA METODOLOGÍA PRACTICA POSTMORTEM DE ANÁLISIS DIGITAL FORENSE 13. SCHEDULING TO JOB SHOP CONFIGURATION MINIMIZING THE MAKESPAN USING CHAMPIONS LEAGUE ALGORITHM 14. UNA MIRADA A BPMN COMO HERRAMIENTA ESTÁNDAR PARA EL MODELADO DE PROCESOS DE NEGOCIO LAS ONTOLOGIAS EN LA GESTIÓN DEL CONOCIMIENTO ORGANZIACIONAL ZIRIGUIDUM IN NURSING DATA: COFEN'S DATA TREATMENT METHODOLOGY 150

6 17. SEGURIDAD EN REDES INALAMBRICAS DE ACCESO LOCAL BAJO PARAMETROS DE USO DE HERRAMIENTAS LIBRES 18. ADMINISTRACIÓN Y CONFIGURACIÓN DE UNA NUBE PRIVADA SEGURA Y PERSONALIZADA PARA PYMES 19. ESTRATEGIA ALGORÍTMICA PARA EL MANEJO DE DATOS EN REDES SOCIALES 20. DESARROLLO DE UN SISTEMA DE INTERACCIÓN MULTIPANTALLA PARA LA GESTIÓN DE PEDIDOS EN PLAZOLETAS DE COMIDAS MODELOS DE USUARIO Y SISTEMAS ADAPTATIVOS DE APRENDIZAJE 206

7 PRESENTACIÓN La red de Decanos y Directores de programa de Ingeniería de Sistemas, REDIS del nodo Boyacá Llanos, surge de la iniciativa de los Decanos y Directos de los programas de Ingeniería de Sistemas, de crear una red que permita trabajar en pro del desarrollo de la profesión. Esta red actualmente está conformada por la Universidad de Boyacá, Universidad Santo Tomás Seccional Tunja, Fundación Universitaria Juan de Castellanos y Universidad Nacional Abierta y a Distancia, quien con el ánimo de mantener a los profesionales interesados en el área de TIC, presentan a la comunidad en general el 1 er Congreso Internacional de Investigación en Ingeniería de Sistemas CIIIS La Ingeniería de Sistemas es una profesión que requiere de constante y continua evolución, la cual está marcada por los avances tecnológicos cada vez más rápidos, motivo que lleva a crear espacios que garanticen la socialización de resultados a nivel de investigación que generen análisis y discusión, con el fin de busca empoderar a la comunidad académica y científica de dichos avances, en pro, de fortalecer los procesos y encontrar sinergias que ayuden a potencializarla. Los diferentes enfoques en los que se trabaja en investigación en Ingeniería de Sistemas, se pueden ver plasmados, en los trabajos que se presentan, constituyendo estas memorias en solo un parte de las áreas de investigación en las que se puede trabajar. Este espacio abre la posibilidad para que se continúen generando futuras socializaciones y lograr que estos avances propicien el desarrollo tecnológico y procesos de innovación y emprendimiento a nivel local, regional, nacional e internacional. Comité Editorial

8 Aplicación de la Web 3d en Dispositivos Móviles Cindy Viviana Hernández Otálora, Estudiante 10 Semestre Ingeniería de Sistemas y Computación, Universidad Pedagógica y Tecnológica de Colombia. Geovanny Andrés Buitrago Aponte, Estudiante 10 Semestre Ingeniería de Sistemas y Computación, Universidad Pedagógica y Tecnológica de Colombia. Juan José Camargo Vega, Docente Ingeniería de Sistemas y Computación, Universidad Pedagógica y Tecnológica de Colombia. RESUMEN Una de las innovaciones más fuertes en cuanto al Internet se refiere es la web 3D, la cual se ha convertido en una moda y en un punto llamativo hacia los usuarios, esta surge del éxito del cine y del gran impacto que tienen los videojuegos en cierta parte de la población. Junto con esto viene la evolución de la tecnología móvil la cual día tras día aumenta a pasos fuertes y gigantes; en torno a estos dos puntos surge la importancia de realizar la presente investigación que radica en entender y comprender la aplicación que tiene la Web 3D con otro tema de innovación en la actualidad, como lo son los dispositivos móviles que están teniendo un gran avance y cada vez se optimizan sus recursos con el fin de brindar comodidad, satisfacción y familiaridad a los Usuarios. En este paper se realizará una comparación del soporte que tienen las principales plataformas móviles las cuales son Android, ios y Windows Phone para el manejo de la tecnologia web 3D desde los navegadores Google Chrome, Safari, Internet Explorer, Opera y Firefox con el fin de atraer la atención de los usuarios hacia el uso de esta tecnología. PALABRAS CLAVE Web 3d, tecnología móvil, navegadores, plataformas móviles, Android, ios, Windows Phone. ABSTRACT One of the strongest recently innovations of Internet is the 3D web, which has become a trend and in a striking point to the users, this arises from the success of the film and the great impact of video games on certain part of the population. Along with this comes the evolution of mobile technology which increases every day quickly and stronger; around these two points the importance of this research is to understand and comprehend the application that the 3D Web has with another topic of innovation today such as mobile devices wich are having a great improve and each time their resources are optimized in order to provide comfort, satisfaction and familiarity to users. This paperwill realize a comparison of the major mobile platforms Android, ios and Windows Phone and their support of the web 3D management technology in the browsers Google Chrome, Safari, Internet Explorer, Opera and Firefox in order to attract the attention of users to use this technology. KEYWORDS WEB 3D, Mobile Technology, Browser, Mobile Platform, Android, ios, Windows Phone. E I. INTRODUCCIÓN L uso de la web hoy en día es sinónimo de evolución pues a través de un navegador instalado en cualquier sistema de cómputo podemos acceder a la infinita cantidad de portales web con diversos tipos de contenido que hay en el mundo. a pesar de que los navegadores aún tienen ciertas restricciones de procesamiento debido a limitaciones de acceso al hardware de la máquina, se puede observar que el contenido multimedia, interactivo y gráfico es cada vez más usado por los navegadores, a tal punto que a día de hoy podemos realizar casi cualquier tarea solamente teniendo acceso a un navegador sin necesidad de ejecutar programas de 7

9 aplicación sobre el propio sistema operativo. Uno de estos tipos de contenido que está empezando a ejecutarse sobre los navegadores son los gráficos en tres dimensiones (3d), este tipo de contenido tiene la necesidad de utilizar potencia gráfica y de procesamiento de la máquina para mostrarse correctamente y con fluidez, y por ello frecuentemente la tecnología web está constantemente actualizandose para proporcionar a los desarrolladores de páginas web las posibilidad de hacer uso del hardware de la máquina. La web 3D, se encuentra relacionada con la tridimensionalidad en la internet, pero de qué manera se comporta en cada uno de los navegadores de los diferentes sistemas operativos móviles? El uso de la tecnología 3d sobre los navegadores móviles aún es demasiado precoz, sin embargo tecnologías como webgl empiezan a dar soporte en navegadores web en los dispositivos móviles. El presente trabajo de investigación pretende realizar una comparación de las plataformas móviles android, ios y windows phone en relación al soporte y compatibilidad con tecnologías web 3d directamente sobre los navegadores usables en cada plataforma, esto determinará qué plataforma es más apta o la que tiene más oportunidades de ejecutar contenidos 3d en un navegador, por lo que se sabrá para qué plataforma es más conveniente realizar software. La importancia de realizar la presente investigación radica en entender y comprender la aplicación que tiene la web 3d con otro tema de innovación en la actualidad, como lo son los dispositivos móviles que están teniendo un gran avance y cada vez se optimizan sus recursos con el fin de brindar comodidad, satisfacción y familiaridad a los usuarios. Inicialmente se aborda un referente teórico en donde se resalta y se muestran las generalidades de la web 3d y su enfoque en los dispositivos móviles; en seguida, se hace la comparación de las 3 plataformas anteriormente nombradas con casos prácticos para conocer el grado de adaptación que cada una está teniendo con la tecnología de la web 3d, y, finalmente se concluye el tema y se muestran las referencias bibliográficas utilizadas. A. Web 3D II. CONCEPTUALIZACIÓN Debido al gran avance que ha tenido la Internet y su constante evolución, al surgir la Web 3D nace con ella el Consorcio Web3D el cual fue formado para proporcionar un foro para la creación de estándares abiertos para las especificaciones Web3D, y para acelerar la demanda mundial de productos basados en estos estándares a través del patrocinio de programas de educación de mercado y el usuario. Hoy, el Consorcio Web3D está utilizando su apoyo a la industria de base amplia para el desarrollo de la especificación X3D, para comunicar 3D en la web, entre las aplicaciones, redes distribuidas y servicios Web. A través de los esfuerzos bien coordinados con la ISO y W3C, el enfoque del Consorcio Web3D es mantener y ampliar sus actividades de normalización. [1] 1) Fundamentos de la web 3D Esencialmente Web3D es el "concepto" de contenido 3D interactivo que muestra a través de la web una nueva experiencia para los usuarios. Esto uniéndolo con la definición del Consorcio Web3D permite afirmar que es la integración del sentido humano en el espacio y el tiempo con la interacción de la interfaz de usuario y de lenguajes de programación que hacen de esto una realidad. La Web 3D no es necesariamente una Web para ver con anteojitos, aunque algo de esto también hay, sino que es un concepto más amplio, es la posibilidad de desplazarnos a través del navegador por un espacio tridimensional; en la actualidad, muchos navegadores han comenzado a soportar aceleración por hardware para efectos y transformaciones 3D. Aquí vale la pena aclarar que es cuestión de tiempo 8

10 para que se estandaricen las nuevas tecnologías y el soporte sea cada vez mayor y más robustos, pues en algunos casos los ejemplos pueden verse lentos. (De Luca, 2011) Fig. 1. Características de la web 3D Resultado de la Investigación En la figura 1 se puede identificar las principales características de la web 3D como lo son la simplicidad enfocado a que se manejan instalaciones automáticas cuando se rquieren o se realiza consumo directo de hardware, la compatibilidad que a nivel de sistemas operativos de escritorio se encuentra soporte para las tres(3) plataformas mientras que para dispositivos móviles si no es así esto se podrá ver en las tablas de resultados, la calidad dirigido a rendimiento y visualización, interactividad la cual depende de los desarrolladores y sus permisos para trabajar con esta temática y finalmente la normalización que se relaciona con la posición que se tiene en el mercado. 2) Tecnología a usar Hoy en día nos encontramos con algunos avances en este campo. Por un lado, CSS3 incorpora características para crear transformaciones que utilizan la tercera dimensión. Al mismo tiempo, las tecnologías relacionadas con HTML5 también se suben a este tren y comienzan a ofrecer posibilidades 3D, aprovechando el lienzo de Canvas para comenzar a sorprender al mundo. Uno de estos casos es WebGL, la especificación que permite que los navegadores puedan correr gráficos 3D y, de estar disponible, aprovechen la aceleración por hardware. 3) Aplicación de la web 3D Al ser la web 3D una nueva tecnología se encuentra en auge y ya son diferentes las aplicaciones desarrolladas entre las cuales podemos destacar principalmente los juegos, otras aplicaciones menos conocidas utilizan esta tecnología para la creación de graficos en 3D como lo son usos ofimáticos o simulaciones que permiten observar objetos multidimensionales con mayor precisión que los graficos en 2D; por último cabe mencionar las aplicaciones turísticas simuladas por computador, como un claro ejemplo de estas tenemos google maps y google streetview, las cuales permiten hacer visitas electrónicas a lugares de interés en el mundo con fotografías en 3 dimensiones. Por el momento las aplicaciones web de 3 dimensiones están limitadas debido a la poca capacidad de procesamiento que tienen los navegadores, recientemente se está implementando el acceso a través de la GPU (GraphicsProcessingUnit) del computador y, de esta manera, incrementando el rendimiento de las aplicaciones y mejorando la experiencia de usuario en el uso de estas. B. 3D En móviles 1) Realidad aumentada: En la actualidad la realidad aumentada es una aplicación novedosa del 3d en los dispositivos móviles, ésta busca combinar elementos gráficos reales del mundo real y combinarlos con imágenes virtuales para ofrecer al usuario una mejor experiencia de lo que está observando. La realidad aumentada es una variación de la realidad virtual. En la tecnología virtual, el usuario se sumerge en un mundo totalmente virtual, sin tener contacto con el 9

11 mundo real que le rodea. Sin embargo, la realidad aumentada permite que el usuario vea el mundo real aumentado con información adicional generada por un ordenador [2]. En la Figura 2 se observa la combinación real-virtual y dos métodos para llevarla a cabo. reconocimiento visual. El reconocimiento visual móvil permite una interacción natural con el entorno del usuario. Debido a que la información o servicios son específicos de ese objeto en el que estamos interesados. [5] 2) Video juegos: Otra popular aplicación del 3d en dispositivos móviles son los juegos de video. Debido al gran rango de funcionalidades que han sido implementadas en estos dispositivos móviles y a su portabilidad, los usuarios para entretenerse tienden a jugar en su tiempo libre con los videojuegos incluidos en sus celulares, principalmente jóvenes y niños. [6] Fig. 2. Métodos: a) Combinación de visión con objetos virtuales, b) Método directo, c) Método Indirecto. [3] Uno de los enfoques más relevantes que ha tomado la realidad aumentada es sin duda el campo de la educación, existen aplicaciones que usan esta técnica para enseñar diferentes áreas del conocimiento. Estas nuevas herramientas basadas en presentaciones 3D y con gran interacción facilitan la comprensión de las materias de todas las ciencias. Los estudiantes pueden interactuar con objetos virtuales en un entorno real aumentado y desarrollan el aprendizaje experimentando. [4] Por ahora el uso de la realidad aumentada en dispositivos móviles, se hace a través de marcadores y patrones, que son imágenes del mundo real especialmente diseñadas para que sean fácilmente reconocidas por el dispositivo, y así éste sepa en que lugar de la pantalla debe posicionar el elemento virtual. Sin embargo en un futuro estos marcadores y patrones serán reemplazados por objetos reales que estén mostrándose en la imagen usando La evolución de los videojuegos tuvo más auge con la aparición de mundos virtuales en 3D, que de la mano del avance de la tecnología como computadoras con varios procesadores, tarjetas de video que soportan grandes cálculos matemáticos atraen al jugador o usuario de la aplicación y estimulando en él la curiosidad por jugar y según como sea del agrado del usuario este tendrá varias horas de entretenimiento[7], por supuesto teniendo en cuenta que a día de hoy (Octubre 2013), esa potencia de procesamiento está disponible en diferentes celulares y dispositivos móviles en general. Una de las razones fundamentales por la que los videojuegos son tan populares entre niños y jóvenes es porque logran producir emociones a quien lo juega, de esta manera, la experiencia en un videojuego se transforma en una experiencia emocional tan natural como la que se produce en el mundo real. [8]. 3) Mapas y sistemas geográficos 3D. Ante un panorama de clara proliferación de aplicaciones para móviles, el software de representación de terreno pretenden ser una apuesta fuerte dentro de los Sistemas de Información 10

12 Geográfica 3D de código abierto, que abarque variadas utilidades sectoriales. [9]. Este tipo de aplicaciones nos permite movernos a través terrenos y sectores geográficos con nuestros smartphones y tablets, haciendo la experiencia casi tan real como si estuviéramos realmente allí, tal es el caso de Google Earth, una aplicación disponible tanto para pcs como para dispositivos móviles que nos permite renderizar contenido del terreno que estamos visualizando en 3d, claro si este tipo de contenido está disponible en la parte del globo terráqueo al que queremos acceder. La capacidad de importar contenido 3D y representarlo gráficamente de forma nativa en aplicaciones Web en general y Geoportales, es probablemente, el cambio más radical que la Web va a adoptar en mucho tiempo [10]. Lo anterior nos permitirá disfrutar el contenido en 3 dimensiones de un lugar sin necesidad de una aplicación propia de un proveedor o de una plataforma. Un punto importante a favor de los SIG en los dispositivos móviles, es la inclusión de un GPS, el cual permite al usuario no solo localizarlo en un mapa, si no dar instrucciones específicas en relación al lugar donde se encuentre el usuario como: posibles rutas para llegar a un lugar y diferentes establecimientos que el usuario pueda estar buscando como: restaurantes o sitios turísticos. El aspecto de mayor complejidad de los SIG 3D es lograr la inmersión del usuario en la escena, por lo cual para contribuir a la inmersión total del usuario es necesario, hacer uso de todo el hardware disponible en los dispositivos móviles además del GPS como: Acelerómetro, magnetómetro, giroscopio o inclusive las cámaras del teléfono o tablet. [11] III. DISEÑO DE INVESTIGACIÓN Y METODOLOGÍA La investigación en curso debido a su aplicación tiene un diseño no experimental puesto que no se están manipulando variables sino que se está observando el comportamiento de componentes en un entorno de prueba, anexo a esto se aborda una investigación de tipo exploratoria puesto que el objetivo de la investigación es examinar un tema o problema de investigación poco estudiado como lo es la Web 3D en móviles y lo que se quiere es aumentar el grado de familiaridad de la comunidad con la evolución de la tecnología. Para el desarrollo de la investigación se llevaron a cabo tres (3) fases cada una con una serie de actividades que posibilitaron el cumplimiento del objetivo y rumbo de la investigación. 1) Fase teórica: En la cuál se realiza el levantamiento de información, la organización y clasificación de esta. a. Actividad 1: Caracterización b. Actividad 2: Análisis de Información y estudios realizados en torno a la temática en estudio. c. Actividad 3: Organización y clasificación 2) Fase de comprobación: Luego de buscar e identificar las características de comparación y de seleccionar las aplicaciones 3D y páginas web 3D se realizan pruebas en las tres plataformas en estudio Android, ios y Windows Phone. Se hacen pruebas de medición del rendimiento y consumo del hardware de cada equipo en donde se están realizando las pruebas. Esta fase consta de una sola actividad pues es la parte práctica de la investigación. Para la prueba de compatibilidad, se probaron cada uno de los navegadores (si estaban disponibles en la plataforma), en cada una de los 3 sistemas operativos, Android, ios y Windows Phone; dicha prueba consistió en abrir a través del navegador, 2 portales web: (a) Esta página, comprueba el soporte 3D del navegador actual. 11

13 (b) arium/aquarium.html: Nos permite ver una animación con alto contenido 3D, y algunas características de rendimiento como: FPS (Frames per second), número de objetos (peces) en la animación y efectos 3D. 3) Fase de análisis y resultados: Después de realizadas las pruebas se obtienen resultados y datos encontrados en cada una, de los cuales se realiza un análisis y se prosigue a concluir el trabajo investigativo (a) Actividad 1: Análisis e interpretación de resultados (b) Actividad 2: Discusión de resultados con la mecánica de comparación con estudios realizados y los resultados obtenidos (c) Actividad 3: Concluir el proceso investigativo IV. RESULTADOS Y ANÁLISIS DE RESULTADOS En la tabla 1 del apartado de resultados se puede observar que Android Soporta WebGL de forma nativa en los Navegadores: Chrome, Firefox y Opera; por otro lado IOS, no provee de un soporte nativo para dicha tecnología pero que haciendo uso de un Jailbreak (Acceso a super usuario) estaría disponible en Safari 5.1, Chrome y Opera y por último Windows Phone, que según las pruebas realizadas no tiene aún un soporte WebGL definido. Siguiendo con la puesta en práctica de la investigación en la tabla 2, para tener un valor cuantitativo se genera una escala de valores para evaluar características y comportamiento de cada plataforma en torno a la web 3D, esta se compone de la siguiente manera: 1 = Bajo 2=Medio 3 = Alto de cada plataforma, de las características que fueron evaluadas se puede rescatar de cada una lo siguiente: (a) Rendimiento: Android es la plataforma que mejor soporta la tecnología WebGL mientras que Windows Phone es el que menos (b) FPS: en chrome 43-45fps, firefox 37-42ps y opera 43-47fps; estos 3 obtenidos en Android. (c) Calidad de Imagen: tanto en Android como ios la calidad de las imágenes es excelente, debido a que su resolución es buena sin llegar a mostrarse imagen pixelada y el contraste de colores no se distorciona. Mientras que en Windows Phone esto no sucede. (d) Calidad de efectos 3D: se encuentra en un nivel medio tanto en Android como en ios, en Windows Phone está en un nivel bajo. (e) Interacción Web 3D con Chrome: en este navegador la plataforma que tuvo mejor comportamiento fue Android, seguida de ios y por ultimo Windows Phone. (f) Interacción Web 3D con Firefox: Android fue la plataforma que mejor se acopló con la tecnología WebGL y este navegador, siendo la única plataforma que ejecutó Web 3D en Firefox. (g) Interacción Web 3D con Safari: ios fue la plataforma que mejor se acopló con la tecnología WebGL desde este navegador, y fue la única plataforma de las tres (3) en estudio que ejecutó Web 3D en Safari pero en un nivel medio. (h) Interacción Web 3D con Internet Explorer: Windows Phone presenta un buen comportamiento con el navegador Internet Explorer pero su acoplamiento con WebGL es bajo, lo cual tanto en la plataforma como en el navegador necesita tenerse en cuenta. (i) Interacción Web 3D con Opera: este navegador se ejecuta correctamente en Android y ios, pero presenta mejor acoplamiento e interacción en Android. Con estos valores se dará un valor a cada característica según el comportamiento evidenciado 12

14 TABLA I EVIDENCIA INVESTIGATIVA Navegador Android IOS (Sin jailbreak) Windows Phone Chrome 13

15 Safari No existe (oficialmente) No existe (oficialmente) Firefox No existe (oficialmente) No existe (oficialmente) 14

16 Opera No hay soporte actualmente (Sin embargo lo habrá más adelante) 15

17 Internet Explorer No existe (oficialmente) No existe (oficialmente) TABLA II CARACTERÍSTICAS EVALUADAS Item Android ios Windows phone Rendimiento Tiempo de Respuesta Calidad de imagen Calidad de efectos 3D Interacción Web 3D con Chrome Interacción Web 3D con Firefox 3 X X Interacción Web 3D con Safari X 2 X Interacción Web 3D con Internet Explorer X X 1 Interacción Web 3D con Opera 3 2 X 16

18 Finalmente, en la tabla 3 del apartado de resultados se muestra un análisis de los resultados obtenidos en la investigación, en donde se prueba en navegadores web en distintos sistemas operativos móviles con soporte para diferentes características 3D, algunas características como CSS3 2D y SVG, no están estrictamente en el campo 3D, sin embargo fueron tecnologías antecesoras que hicieron surgir las primeras tecnologías para web 3D; se muestran características importantes que hacen posible mostrar gráficos 3d sobre navegadores y Web Views (Componentes programables sobre los que se puede mostrar contenido web dentro de una aplicación nativa de la plataforma), hay que hacer especial énfasis en WebGL, es una tecnología reciente, que sólo poseen ciertos navegadores, en especial los navegadores para computador de escritorio, sin embargo como se aprecia en la tabla, empieza a incursionar en el campo de los dispositivos móviles. Sin embargo actualmente no hay demasiadas aplicaciones web que hagan uso de esta tecnología, además el soporte WebGL viene por defecto deshabilitado en la mayoría de navegadores, lo cual hace pensar, que por ahora está al alcance de los desarrolladores y programadores. Como es de apreciar la plataforma Android cuenta con el mayor número de navegadores que soportan 3D en las diferentes características de esta tecnología. Esto puede ser posible debido a que es un sistema operativo parcialmente libre, pues gran parte de su código es abierto, lo cual permite a las diferentes compañías desarrolladoras incursionar para crear navegadores y tecnologías compatibles con gráficos 3D en dicha plataforma. Por otro lado está IOS, que si bien no posee soporte para tantos navegadores como Android, su principal navegador por excelencia, Safari, cuenta con el soporte para todas las características de tecnologías Web 3D a excepción de la más importante en la actualidad como lo es WebGL, no obstante solo es cuestión de tiempo para que el navegador estrella de Apple cuente con el soporte para este tipo de plataforma. Por último y no menos importante esta Windows Phone, que como se observa, carece de navegadores compatibles con 3D en su plataforma, además su navegador insignia Internet Explorer, también carece de características que soportan tecnologías 3D, o al menos en lo que a plataformas móviles concierne. Sin embargo, esto no significa que esta plataforma sea deficiente en el aspecto de tecnologías Web 3D, por otro lado la causa principal de esta carencia podría estar en la juventud del ecosistema de microsoft con TABLA III COMPORTAMIENTO DE LA WEB 3D EN CADA PLATAFORMA ESTUDIADA Soporte Android ios Windows phone CSS3 transforms 2D Android Browser, Google Chrome, Opera, Firefox Safari, Opera Internet Explorer CSS3 transforms 3D Android Browser(3.0+), Google chrome, Firefox Safari Aun no implementado Canvas API Android Browser(3.0+), Google chrome, Firefox, Opera Safari, Opera Internet Explorer, Opera SVG (Scalable Vector Graphics) Android Browser(3.0+), Google chrome, Firefox, Opera Safari, Opera Internet Explorer WebGL (Standard Graphics Web 3D) Android Browser (Solo en algunos de los últimos dispositivos), Google Chrome (30.0 +), Firefox (Últimas versiones), Opera Mobile (12.0 +) Safari(Soporte en estado inicial) Aun no implementado 17

19 Windows Phone, pues debido a su reciente aparición no tiene una cantidad considerable de aplicaciones y de software diseñado para esta plataforma y por ende tampoco tiene el soporte para tecnologías 3D Web como si lo tienen sus competidores, sin embargo es cuestión de tiempo para divisar si su ecosistema evoluciona con éxito como lo hicieron Android y IOS. V. CONCLUSIONES (a) Android, al ser un sistema operativo libre, funcional sobre varios tipos de dispositivos, y tener experiencia en el campo de la tecnología móvil, permite fácilmente dar soporte nativo a tecnologías Web 3D como lo es el estándar WebGL. (b) Google Chrome al ser un Navegador móvil con soporte para múltiples plataformas y compatibilidad con tecnologías 3D, es considerado el uno de los mejores navegadores en el campo de la Web 3D en dispositivos móviles. (c) IOS es un Sistema operativo privativo que cuenta con un excelente soporte por parte de su creador, sin embargo tiene restricciones que evitan el soporte nativo para mostrar contenido 3D sobre los navegadores. (d) Si se aplica Jailbreak a un dispositivo con Sistema Operativo IOS, en contenido Web 3D se mostrará y será funcional en los Navegadores Google Chrome, Safari y Opera, por lo que se convertiría en un rival directo a Android, en este aspecto. (e) Windows Phone es un Sistema Operativo de reciente aparición en el mundo de la tecnología móvil, que actualmente se encuentra en proceso de crecimiento y evolución respecto a sus competidores. (f) La cantidad de navegadores disponibles en el ecosistema de Windows Phone es escasa, esto ocasiona que el soporte Web 3D no sea notable actualmente en esta plataforma. (g) Firefox es un navegador que proporciona un excelente rendimiento y soporte para mostrar contenido de gráficos 3D, sin embargo, de los Sistemas operativos analizados en esta investigación, solamente esta disponible para la plataforma Android. (h) Opera es un navegador que siempre se ha destacado por dar soporte a multitud de plataformas, tanto a móviles como a computadores en general, a pesar de no ser uno de los más populares entre los usuarios, es uno de los más funcionales y destacados por estar actualizado y abierto a novedades del mundo Web. VI. REFERENCIAS [1] Web3D Consorcio. ( ). Acerca Consorcio Web 3D. Consultada [30 de septiembre 2013] [2] Roberto Garrido, & Alex García-Alonso. (2009). Técnicas de Interacción para Sistemas de Realidad Aumentada. Retrieved from RealidadVirtual/08_JOREVIR_Garrido.pdf?ifra me=true&width=95%&height=95% [3] Andrés Agudelo Toro. (2005). Modelo de contexto para realidad aumentada. Retrieved from ta-universidad-eafit/article/view/856/762 [4] X. Basogain, M. Olabe, K. Espinosa, C. Rouèche, & J.C. Olabe. (2007). Realidad Aumentada en la Educación: una tecnología emergente. Retrievedfrom /educamadrid-2007.pdf [5] David Marimón, Tomasz Adamek, Kerstin Göllner, & Carlos Domingo. (2010). Reconocimiento visual móvil: El futuro de la realidad aumentada móvi. Retrieved from 18

20 .com/seccion=1268&idioma=es_es&id= &activo=6.do [6] María Enedina Carmona Flores. (2008). Videojuego 3D para Celulares con J2ME, M3G y Bluetooth. Retrieved from 2008/PapersPdf/D499IC.pdf [7] Xavier Mauricio Rea Peñafiel, & Wilmer Manuel Carrera Pérez. (2013). Desarrollo de videojuegos con texturas y modelos 3D, multitusuario (en red) y un entorno clientes/servidor (internet) utilizando el Framework de Microsoft XNA. Retrieved from [8] Carina S. González1, & Francisco Blanco. (2008). Interacción, Motivación y Emociones con Videojuegos. Retrieved from [9]Jose Miguel Santana. (2012). Diseño e implementación de un sistema GIS 3D para plataformas móviles. Retrieved from [10] Alberto Romeu1, Daniel Gastón, & Amelia del Rey. (2012). Clientes IDE 3D: Visualización de edificios 3D y SIG móvil. Retrieved from l/cliente%20ide%203d_jiide_2012_prode VELOP.pdf [11]Juan Pablo Rave Salinas (2012). VISUALIZACIÓN ESTEREOSCÓPICA EN DISPOSITIVOS MÓVILES. UNIVERSIDAD MILITAR NUEVA GRANADA, Bogotá, Colombia. Retrievedfrom ttp://repository.unimilitar.edu.co/handle/10654/ 7208 [12] María Enedina Carmona Flores. (2008). Videojuego 3D para Celulares con J2ME, M3G y Bluetooth. Retrieved from 2008/PapersPdf/D499IC.pdf [13] Scintillating Graphics (2008). Que ésla Web 3D?.http://www.scintillatinggraphics.com.au/V RMLmagic/Web3DInfo.html Consultada [30 de septiembre 2013] [14]De Luca Damian (8 diciembre 2011).Web 3D. El internet se sube a las tres dimensiones. Consultada [30 de septiembre 2013]. Primer Autor Cindy Viviana Hernández Otálora Bachiller Académica del colegio de la presentación de Tunja, Tecnóloga Comercial y financiera, Estudiante con terminación académica de ingeniería de sistemas y computación- UPTC Tunja. Actualmente Ingeniera de Desarrollo Junior en Heinsohn Business Technology. Tiene recorrido en el ámbito investigativo tales como: Ponente Sistemas Colaborativos Riesgos De Seguridad Y Como Combatirlos. En: Congreso Internacional de Investigación en Nuevas Tecnologías Informáticas - CIINTI 2012, (14/septiembre/2012), Tunja, Universidad Santo Tomás. ISBN Ponente: XV Encuentro Nacional y IX Internacional de Semilleros de Investigación, 11,12,13 y 14 de Octubre de 2012, Universidad Cooperativa de Colombia, Bucaramanga - Santander. Ponente: X Encuentro Regional de Semilleros de Investigación Redcolsi Nodo Boyacá, 10 y 11 de Mayo de 2012, Escuela de Policía Rafael Reyes, Santa Rosa de Viterbo - Boyacá. Ponente: IX Encuentro Regional de Semilleros de Investigación Redcolsi Nodo Boyacá. 18,19 y 20 de Mayo de 2011, Universidad de Boyacá, Tunja - Boyacá Asistente: III Encuentro Internacional y VII Nacional de investigación en ingeniería de sistemas e informática, 3, 4 y 5 de octubre de 2012, Sogamoso - Boyacá. Asistente: I Encuentro Internacional y V Nacional de investigación en ingeniería de sistemas e informática, 6, 7 y 8 de octubre de 2010, Sogamoso - Boyacá. Segundo Autor Geovanny Andrés Buitrago Aponte Bachiller Técnico con Énfasis en Sistemas de la Institución Educativa Nacionalizada de Samacá, Estudiante con terminación académica de ingeniería de sistemas y computación - UPTC 19

21 Tunja. Actualmente Ingeniero de Desarrollo Junior en AppSolution S.A.S. Su aporte en el campo investigativo es su participación como Ponente en el IX Encuentro Regional de Semilleros de Investigación Redcolsi Nodo Boyacá. 18,19 y 20 de Mayo de 2011, Universidad de Boyacá, Tunja - Boyacá. Tercer Autor Juan José Camargo Vega Ingeniero de sistemas de la Universidad INCCA de Colombia, Especialista en Diseño de Sistemas de Auditoria, Universidad Nacional de Colombia. Especialista en Ingeniería de Software, Universidad Antonio Nariño Colombia. Magister en Tecnologías de la Información Aplicadas a la Educación, Universidad Pedagógica Nacional - Colombia. D.E.A. Sociedad de la Información y el Conocimiento, Universidad Pontificia de Salamanca - España. Actualmente, Docente Asistente, Escuela Ingeniería de Sistemas y Computación, Universidad Pedagógica y Tecnológica de Colombia. En su trabajo investigativo se resalta su participación en Sistemas Colaborativos Riesgos De Seguridad y Como Combatirlos. En: Congreso Internacional de Investigación en Nuevas Tecnologías Informáticas - CIINTI 2012, (14/septiembre/2012), Tunja, Universidad Santo Tomás. ISBN

22 Evaluación de Sistemas de Administración del Aprendizaje (LMS) en 3D JIMMY Y. ARDILA M. y EDITH M. RUÍZ C. Grupo de Investigación EDUTIC, Facultad de Ciencias e Ingeniería, Universidad de Boyacá Tunja, Colombia Abstract En este documento se plasma el avance de la investigación Estudio comparativo entre plataformas virtuales gratuitas y la plataforma virtual propietaria de la Universidad de Boyacá que adelanta el grupo de investigación EDUTIC. En el contenido se indican algunos elementos teóricos que se han tenido en cuenta, la selección de las herramientas vinculadas en el estudio y las dimensiones que han de ser evaluadas. Index Terms Evaluación de plataformas virtuales, Sistemas de administración del aprendizaje, tecnologías de la información y la comunicación en educación L I. INTRODUCCIÓN 1 A masificación de la oferta en educación superior ha sido impulsada desde las políticas propuestas por la UNESCO y acogida por sus países miembro. Este escenario ha incrementado la demanda en el sistema educativo, el cual hace uso de las tecnologías de la información y la comunicación (TIC), y en especial de los sistemas de administración del aprendizaje (Learning Management System - LMS) para hacerle frente. Pero la selección del LMS que se ajuste a los intereses institucionales pasa, en ocasiones, por una elección de popularidad. Si se hace la elección incorrecta, suscita una pérdida significativa de tiempo e incluso una degradación de la imagen 1 El documento de presentación de ponencia fue entregado el 13 de Diciembre de La investigación denominada Estudio Comparativo entre plataformas virtuales gratuitas y la plataforma virtual propietaria de la Universidad de Boyacá, es adelantada por el grupo de investigación EDUTIC, adscrito a la Facultad de Ciencias e Ingeniería de la Universidad de Boyacá. El grupo a su vez tiene como misión soportar a través de sus investigaciones las actividades que se adelantan en la Vicerrectoría de Educación Virtual de la institución. Jimmy Y. Ardila M. es profesor asistente de la Universidad de Boyacá, y se encuentra adscrito al Departamento de Informática de la Universidad de Boyacá, ubicada en la ciudad de Tunja, Colombia. Cuya dirección de correspondencia es la Cra 2 este # ( Edith M. Ruíz C. es profesional de la Vicerrectoría en Educación Virtual de la Universidad de Boyacá, ubicada en la ciudad de Tunja, Colombia. Cuya dirección de correspondencia es la Cra 2 este # ( institucional ante sus educandos. Por tal razón la Vicerrectoría de Educación Virtual de la Universidad de Boyacá, ha asumido desde el grupo de investigación EDUTIC, la construcción de un modelo que permita la evaluación de LMS. Para tal fin ha generado un modelo de evaluación que involucra tres dimensiones para su valoración: modelo pedagógico, usuario y aspectos técnicos. Cada una de ellas está integrada por una serie de factores que han sido ponderados. En el estudio comparativo se han vinculado los LMS Moodle (distribución libre), Chamilo (software libre, bajo licencia GNU/GPL), Claroline (software libre, bajo licencia GNU/GPL), Atutor (licencia Open Source) y la herramienta propietaria de la Universidad de Boyacá. La ponencia se divide en cinco secciones. La primera de ella orígenes, en donde se describe la forma en que surge el proyecto de investigación. La segunda hace una descripción de algunos antecedentes que se han incluido en el estudio. La tercera muestra la revisión del marco teórico que ha incidido en la decisión de las dimensiones y los factores. La cuarta tiene que ver con los resultados obtenidos, en esta etapa se muestra los factores y las características que han sido involucrados en el estudio, y las plataformas seleccionadas. Finalmente se agregan conclusiones y las tareas futuras que demanda el desarrollo del estudio. ORÍGENES Es conveniente indicar al lector los elementos que dieron origen al proyecto de investigación Estudio comparativo entre plataformas virtuales gratuitas y la plataforma virtual propietaria de la Universidad de Boyacá. La Vicerrectoría de Educación Virtual de la Universidad de Boyacá, entre sus diversas funciones, tiene a cargo la oferta académica virtual de la 21

23 institución, así como el proceso formativo de los docentes en áreas relacionadas con las tutorías virtuales de aprendizaje y el diseño de contenidos virtuales. Los contenidos construidos pueden ser empleados, con el acompañamiento de los funcionarios de la vicerrectoría, en cursos de diferentes áreas en modalidad blended, b-learning. En la actualidad la Universidad de Boyacá cuenta con una plataforma propietaria que soporta 189 cursos virtuales que han sido certificados por la vicerrectoría. Estos cursos en su mayoría son usados en modalidad blended, para soportar la oferta presencial académica que se realiza en la universidad. La acogida que esta modalidad formativa tiene por parte de los docentes ha generado nuevas necesidades, entre las que se encuentran herramientas de comunicación sincrónica y asincrónica, reutilización de contenidos, instrumentos de evaluación (heteroevaluación, coevaluación y autoevaluación), y herramientas de authoring, por mencionar algunas. A su vez la Vicerrectoría de Educación Virtual tiene un especial interés en desarrollar procesos formativos que se caractericen por la inclusión, aspecto que resulta deficiente abordar con la plataforma que se cuenta en la actualidad. También es de interés institucional no incurrir en gastos de licenciamiento existiendo suficientes alternativas gratuitas. Debido a las nuevas necesidades, la vicerrectoría requiere elegir cual es el LMS que se ajusta a los intereses institucionales. El problema surge entonces, al tener que seleccionar un LMS, debido a la cantidad de herramientas que ofrecen servicios semejantes en el mercado. La institución no desea en términos de [1] usar herramientas por asunto de moda. Por tanto, surge la necesidad de brindar una mirada investigativa para sustentar la decisión; de allí surgen las siguientes preguntas Cuáles son las características y servicios que debe ofrecer un LMS para que pueda ser considerado como el instrumento que permite desarrollar el modelo pedagógico de la Universidad de Boyacá? Cuáles son las plataformas gratuitas que deben tenerse en cuenta en el estudio comparativo? Cuáles son las dimensiones que deben involucrarse en la evaluación de los LMS? Qué criterios deben ser involucrados en las dimensiones? Cómo puede validarse la selección de los criterios? Cómo han de ponderarse los criterios? Con estas cuestiones en mente, el grupo se traza como objetivo identificar la plataforma virtual gratuita que permita implementar las políticas del modelo pedagógico virtual de la Universidad de Boyacá, a través de un estudio comparativo, con el fin de mejorar y ampliar los servicios que la Vicerrectoría de Educación Virtual ofrece a su comunidad académica. III. LOS PRIMEROS HALLAZGOS Al iniciar el proceso investigativo se encontró que algunas de estas preguntas, como era de esperarse, ya habían sido formuladas por otros investigadores en distintas latitudes del mundo, los cuales plantearon diferentes formas de abordar la problemática, en esta sección se muestran los antecedentes que se sirvieron de base para el desarrollo del estudio. El título de cada una de las secciones es el nombre que los autores dieron a los proyectos de investigación, artículos o ponencias. Involucrar A. Elearning. Análisis de Plataformas Gratuitas. El proyecto desarrollado por Delgado en 2003 y que se encuentra descrito en [2], tiene como propósito hacer un análisis de las plataformas de gestión del conocimiento que se distribuyen de manera libre. Para ese entonces la Universidad de Valencia (España), desarrolló el proyecto con la intención de indagar por cuál de las plataformas gratuitas del mercado podía emplearse de manera masiva en la oferta virtual de la institución. Interés que coincide con la actual necesidad de la Vicerrectoría de Educación Virtual de la Universidad de Boyacá. La investigación requería seleccionar las herramientas a involucrar en el estudio, para ello se desarrollaron cuatro filtros. El primero, excluir las herramientas que no tienen información o que no tienen versiones demo. El segundo, seleccionar aquellas plataformas que soporten castellano, inglés, valenciano y catalán. El tercero, quitar aquellas que exigían dependencia de terceros para su funcionamiento. El último filtro, en seleccionar aquellas herramientas que ofrecían funcionalidades de gestión y desarrollo de curso online. Como resultado este primer grupo de filtros dejó en pie 22

24 doce plataformas: Atutor, BolinOS, CHEF, Claroline, CLOSE, Eledge, Fle3, Ilias, Lon-CAPA, Manhattan, Moodle, y WB T-Master. Finalmente, con las doce herramientas el autor realizó un grupo de pruebas, entre las que se incluyeron: revisión de la información que publica el sitio de la plataforma, idioma, accesibilidad, recursos multimedia, apariencia, compatibilidad con estándares, copias de seguridad, control de acceso, perfiles, chequeo antivirus, correo electrónico, listas de distribución, tablón de anuncios, foros de discusión, chat, pizarra, videoconferencia, página personal, agenda, marcadores, creación de grupos de trabajo, autoevaluación, control de progreso, información sobre cursos y profesores, sencillez de la interfaz, conocimientos previos de informática, importación de material, plantillas, índices, glosario, cooperación entre profesores, gestión del curso, ejercicios, seguimiento al estudiante, ayuda, búsqueda, envío y descarga de ficheros, sincronización tras la desconexión, y posteriormente la documentación. Al consolidar los resultados de las pruebas Delgado concluyó que ante la herramienta que se brindó mejores resultados fue Ilias. El autor realizó con la plataforma un estudio de caso, para identificar el funcionamiento de la aplicación en condiciones reales. B. Una Comparación y Evaluación de LMS con Licenciamiento Open Source 2. En el año 2005 Itmazi, Paderewski y Gutierrez publicaron un artículo llamado A Comparison and Evaluation of Open Source Learning Management Systems [3], en donde mostraban los resultados de un estudio en la Universidad de Granada. El proyecto consistió en un estudio comparativo entre los LMS Moodle e Ilias. La elección de esas dos herramientas se debió a los siguientes aspectos: herramientas Open Source; recomendadas por del Ministerio de Educación Australiano y del Instituto Fraunhofer; eran de uso masivo para la época del estudio; y la internacionalización, para la fecha Moodle soportaba 30 idiomas e Ilias 16. La comparación fue abordada a partir de: herramientas que ofrecen cada las plataformas para el proceso formativo; las características que indican los proveedores; la usabilidad; y debilidades descritas por comunidades de programadores y desarrolladores. Como conclusión los investigadores afirman que ambas herramientas tienen un buen grupo de características, destacando el alto grado de usabilidad que ambas poseen. C. Comparación de Sistemas de Administración de ELearning 3. En un trabajo mancomunado en el 2006 entre la Zagreb y la Zagreb University y el School of Economics and Management de Croacia, Fertalj, Jercovic y Hlupic realizaron la ponencia titulada Comparison of e-learning Management Systems [4] en el quinto WSEAS International Conference on EACTIVITIES. El estudio realizado por los investigadores ha tenido en cuenta diez plataformas con las siguientes características: LMS tipo propietario; principalmente propietario y parcialmente basado en estándar LMS: principalmente basado en estándar LMS y parcialmente propietario; y plataformas de licenciamiento Open Source. Los investigadores hallaron que los sistemas propietarios tienen la característica de tener un escaso margen de interoperabilidad con otros LMS, mientras que las plataformas basadas en estándares cuentan con un alto grado de interoperabilidad. Sobre las arquitecturas abiertas concluyeron que no son realmente abiertas debido a los esfuerzos para su configuración, integración y comunicación con otros sistemas. Las plataformas que se involucraron en el estudio son: Jenzabiar Internet Campus Solution, como representante de las propietario; ecollege AU+, Learning Manager Entreprise Edition y WebCT Vista como representantes de las principalmente propietario y parcialmente basado en estándar LMS; Angel, Blackboard Academic Suite y Learnwise 2 Traducción realizada por los autores de la ponencia, el título original es A Comparison and Evaluation of Open Source Learning Management Systems 3 Traducción realizada por los autores de la ponencia, el título original es Comparison of e-learning Management Systems 23

25 como representante de las principalmente basado en estándar LMS y parcialmente propietario; finalmente como representante de las arquitecturas abiertas Claroline, Moodle y Sakai. El comparativo se realizó a través del sitio web Edutools, herramienta que salió de servicio en el año Los factores evaluados fueron: autenticación; automatización de las pruebas y puntaje; calendario; administración del curso; plantillas de curso; personalización; foros de discusión; intercambio de archivos; trabajo en grupo; herramientas para el diseño instruccional; interno; herramientas de calificación en línea; chat en tiempo real; autoevaluación; y seguimiento a educandos. A cada uno de los criterios se le asignó una ponderación de 0 a 9. En los resultados se destaca que Angel (comprado por Blackboard en 2009) es la herramienta que ocupa el primer lugar con un 92.6% de cumplimiento, seguida de WebCT con el 82.8%. Mientras Moodle ocupa el quinto lugar con el 51.7%, seguida de Sakai en el sexto lugar con el 44.2%. tecnológica, las funcionalidades de un LMS y el modelo de calidad. Para la arquitectura tecnológica se involucró la escalabilidad, la seguridad, rendimiento, soporte tecnológico, comunidades de usuarios, motor de bases de datos, lenguaje de programación, servidor de páginas web y la empresa. En las funcionalidades incluyen el conjunto de herramientas que debe tener un LMS, está integrado por lista de miembros, cursos, foros, wiki, chats, entre otros; pedagógicos, aspectos administrativos y de gestión, la usabilidad, elementos simbólicos y la naturaleza del contenido, interactividad y realimentación, herramientas para el aprendizaje y la evaluación. Finalmente en el modelo de calidad se evaluaron las características de calidad (funcionalidad, fiabilidad, usabilidad, eficiencia, portabilidad y mantenibilidad), el ciclo de vida (desarrollo, explotación y mantenimiento) y las características Web (contenidos, presentación y navegación). El estudio concluye que las plataformas principalmente basadas en estándar LMS y parcialmente propietarias son las que lideran el mercado del e-learning, las tres herramientas incluidas ocuparon los tres primeros lugares. D. Modelo de Calidad para una Plataforma LMS. En 2009, los investigadores Chacón-Rivas y Solano, del Instituto Tecnológico de Costa Rica y de la Universidad de Málaga respectivamente, publicaron un artículo denominado Modelo de Calidad para una Plataforma LMS [5], en donde evaluaron la plataforma LRN desde una perspectiva técnica y pedagógica. El estudio se desarrolló en cuatro fases: análisis de necesidades y toma de decisiones institucionales; planificación y desarrollo de la acción formativa de los docentes; estudio piloto e implementación; y finalmente seguimiento, orientación, asesoramiento y evaluación del proceso de implementación. Los criterios que sugirieron los autores para evaluar un LMS corresponden a la arquitectura E. LMS Open Source en Educación a Distancia 4. Aydin y Tirkes en 2010, en su artículo titulado Open Source Learning Management Systems in Distance Learnig [6], describen la evaluación comparativa que realizaron de las herramientas Open Source Moodle, Atutor, Dokeos y OLAT. La comparación se realizó en dos fases; en la primera se analizó las características como aspectos generales, funcionalidad didáctica, herramientas de productividad, herramientas de comunicación, flexibilidad técnica, y usabilidad; en la segunda fase se comparó el comportamiento de esas características en el sistema funcionando. Al evaluar la subcategoría de los aspectos generales se aprecia que Moodle es la única herramienta que cumple con todos los criterios evaluados. En lo referente a la funcionalidad didáctica los resultados mostraron que Moodle y OLAT tienen la capacidad de observar el ingreso de usuarios y el seguimiento a los educandos, permitiendo obtener historias de cada uno de ellos. En los sistemas de evaluación se encontró que 4 Traducción realizada por los autores de la ponencia, el título original es Open Source Learning Management Systems in Distance Learnig 24

26 Moodle y Atutor son los únicos que permiten hacer restricción de fecha y horario. Moodle y Dokeos son los únicos que cuentan con el servicio de teleconferencia. En la subcategoría de las herramientas de productividad, Moodle es la más completa al presentar un sistema ayuda en línea y documentación de archivos. Adicionalmente, Moodle permite que se haga seguimiento de las actividades con un calendario día a día, los docentes pueden colocar temas de discusión y actividades del curso en fechas especiales en donde el sistema se encarga de chequear y sincronizarlas. En la subcategoría de las herramientas de comunicación, Moodle es el único que cumple con todos los ítems incluidos en este punto. En la subcategoría de la flexibilidad técnica Moodle y Atutor presentan la característica de tener soporte XML. Finalmente, con respecto a lausabilidad se refiere Moodle tiene una amplia ventaja sobre las otras herramientas, debido a su disponibilidad en múltiples lenguajes, la interfaz de usuario facilita su uso. Como conclusión Aydin & Tirkes indican que Moodle tiene muchas características que le permiten aumentar su calidad pedagógica cumpliendo con varios elementos que requiere el e-learning. F. Evaluación de Factores Técnicos en la Educación a Distancia Respecto a LMS Open Source 5. En 2012, Alshonrami investigador de la King Abdulazis University en Arabia Saudita, en su artículo Evaluation of Technical Factors in Distance Learning with Respect to Open Source LMS [7], se traza como objetivo establecer criterios para la comparación de plataformas LMS de licencia Open Source. Los criterios que el investigador empleó para su estudio se relacionan con la usabilidad, los estándares SCORM e IMS en lo referente al contenido, el soporte multilenguaje, las 5 Traducción realizada por los autores de la ponencia, el título original es Evaluation of Technical Factors in Distance Learning with Respect to Open Source LMS herramientas que fomentan la colaboración, y el soporte a los métodos de enseñanza. Para el desarrollo del estudio Alshonrami seleccionó cinco LMS, ellas fueron Efront, Moodle, Atutor, Ilias y Claroline. La versión empleada fue la versión demo, a través de los roles docente, administrador y estudiante. Dentro de los resultados se destaca que Moodle, Ilias y Atutor tiene flexibilidad en el lenguaje, cuentan con módulo estadístico que soporta la toma de decisiones. Además. Moodle tiene la capacidad de realizar un seguimiento detallado del usuario, cuenta con un adecuado sistema de seguridad y tiene una amplia suite de herramientas que fomentan el aprendizaje colaborativo. Moodle, Ilias y Atutor se destacan por su sistema de evaluación, al permitir realizar diferentes tipos de preguntas y facilitar el seguimiento que puede hacer el tutor de las actividades del estudiante. Además estas herramientas soportan el estándar SCORM e IMS. Finalmente, el autor destaca que Moodle es el único que soporta videoconferencia, chat, transferencia de archivos y pizarra. IV. EL PROCESO Después de revisar antecedentes, los integrantes del grupo de investigación EDUTIC, realizaron una revisión bibliográfica y del modelo pedagógico institucional para la educación virtual, y de esta manera orientar la selección de dimensiones y factores que debían ser vinculadas dentro del proceso investigativo. Luego se seleccionaron las plataformas a partir de diez proyectos de investigación, dentro de los que se encuentran los enunciados en la sección anterior. Finalmente se procedió a la ponderación de cada una de las dimensiones y factores. A continuación se describen algunos de los aspectos teóricos comprendidos y la forma en que se seleccionaron las herramientas. Las dimensiones y factores, junto a sus ponderaciones se muestran en la sección resultados. A. Modelo Pedagógico Institucional para la Educación Virtual en la Universidad de Boyacá. 25

27 Una de las fuentes documentales que se empleó para la realización del estudio, es el modelo pedagógico institucional para la educación virtual [8]. En la que la Vicerrectoría de Educación Virtual ha planteado tres preguntas Qué enseña? Cómo enseña? Qué y cómo evalúa? Qué enseña? hace referencia a los contenidos y a quienes intervienen en el proceso de aprendizaje. Se destacan aspectos importantes como los componentes del campus, el papel del tutor, los recursos del campus y la estructura interna que posee el curso, los cuales deben favorecer el desarrollo del saber ser, saber conocer, saber hacer y el saber emprender. Cómo enseña? Enmarca las teorías de aprendizaje, las competencias a desarrollar y la forma como se ha de realizar la interacción con los actores del proceso, las cuales son seleccionadas a partir de los intereses de los docentes que construyen los cursos virtuales que se ofertan en la Universidad de Boyacá. Qué y cómo se evalúa? Trabaja dos factores, el primero tiene que ver con el qué y cómo el docente indaga y valora el proceso formativo y realiza la realimentación al mismo, el segundo corresponde a los métodos de estudio que el estudiante incorpora en su proceso de aprendizaje. Con estos dos factores se definen cuatro pautas evaluativas: tipos de ideas, problemas, proyectos y autoevaluaciones. B. Características de los LMS. Los LMS hacen parte de la amplia gama de herramientas software de formación virtual que se emplean para la administración de cursos. Su funcionamiento se basa en arquitectura Web, en donde las personas que participan en los cursos pueden autenticarse, registrarse, cursarlos y presentar las evaluaciones que allí sean alojadas. Los LMS son usados para procesos de formación asincrónica, y en ocasiones cuentan con servicios de authoring y repositorio [9]. Dentro de las ventajas que ofrece un LMS se encuentra: la centralización del ambiente de aprendizaje con lo que se asegura la consistencia; mejor seguimiento a los educandos, permite mejorar el rendimiento; evaluación inmediata; así como la posibilidad de ser regulado y estar sujeto a las normas vigentes [10]. En 1993 Bailey presentó una serie de características que debe cumplir un LMS: vincular los objetivos instruccionales a lecciones individuales; incluir lecciones a currículos estandarizados; extender cursos a varios grados de manera consistente; herramientas de administración; recopilar resultados del rendimiento estudiantil; y finalmente proveer lecciones basadas en los rendimientos individuales [9]. La American Society of Training and Development (ASTD), define como funciones de un LMS: permitir la integración con recursos humanos; poseer herramientas para la administración de registros, el currículo, certificaciones, presupuestos y calendarios; crear, administrar, almacenar y distribuir contenidos; integrar contenidos con terceros; evaluar las competencias de los aprendices; permitir la construcción de evaluaciones; emplear estándares; soportar la integración con sistemas existentes; y proveer seguridad a los datos [9]. A lo que el investigador Luis Ortíz agrega las herramientas de comunicación, que son las que hacen posible la comunicación sincrónica y asincrónica entre docentes-estudiantes y estudiantes-estudiantes [11]. La Advanced Distributed Learning (ADL) también resalta la importancia que tiene el soporte offline que debe tener un LMS. Se destaca la posibilidad de permitir que los cursos puedan ejecutarse en un navegador como una aplicación Web, situación que resulta fundamental para aquellos lugares en donde la conexión a internet es deficiente o en donde la conectividad no existe. En seguridad la ADL recomienda que se deba ofrecer protección contra el ingreso no autorizado, y no permitir que los usuarios hagan tareas que se encuentran fuera de los permisos revestidos en su perfil [9]. Para la revista Learning Review, además resulta importante revisar el soporte tecnológico de las herramientas, el perfil de los docentes y los estudiantes que han de interactuar con la herramienta [12]. Finalmente el Learning Technology Standards Observatory (LTSO), impulsado por el Comité Europeo para la Estandarización y la Normalización, recopila una serie de estándares y organiza una serie de categorías que deben ser evaluadas en la educación virtual, ellas son: accesibilidad, 26

28 relacionado con el uso de diversos navegadores; la arquitectura sustentada en la propuesta de CISCO, es decir, abierta, escalable, global, integrada, flexible y adaptable; calidad; competencias, enfocado en la forma en que pueden evaluarse; contenidos y evaluación; derechos digitales; información de los estudiantes; interoperabilidad; metadatos; proceso de aprendizaje; repositorios; y finalmente vocabularios y lenguajes [13]. C. Aspectos a Evaluar desde la Ingeniería del Software. Un LMS como tal es una aplicación software que funciona en ambientes Web, por tal motivo resulta conveniente tener una mirada desde el punto de vista de la ingeniería del software sobre cuáles son los aspectos que deben involucrarse en la evaluación de la herramienta. En la presente sección se muestran los que se han considerado más relevantes. El Modelo de calidad de McCall, propuesto en 1977, es un referente clásico en el área de la ingeniería del software que se centra en la visión del usuario. El modelo plantea tres áreas particulares, ellas son, operación del producto, revisión y la transición del producto. El primero comprende los criterios de exactitud, confiabilidad, eficiencia, integridad y usabilidad. En el segundo se incluyen mantenibilidad, capacidad de prueba y flexibilidad. Y el tercer criterio incluye interoperabilidad, portabilidad y reusabilidad [14]. En 1984, Garvin propuso ocho dimensiones para la calidad, entre las que se encuentra: el rendimiento, relacionado con aquellos elementos que le dan valor al usuario; características adicionales, aquello que sorprende al usuario y resultan ser un valor agregado a lo esperado; confiabilidad, relacionado con la menor cantidad de fallas posibles y la disponibilidad que posee la aplicación; conformidad, si cumple con lo solicitado, a través de la aplicación de estándares, diseños y uso de convenciones en el código; durabilidad, la proyección en el tiempo que puede esperarse de la aplicación; capacidad de servicio, en el que se evalúa la necesidad de mantenimiento en períodos breves; la estética, que requieren las aplicaciones para ser agradables para el usuario; finalmente la percepción, que se relaciona con la subjetividad de la imagen, la publicidad y la marca [15]. Otro de los referentes que ha sido considerado en la investigación es la propuesta FURPS+, el cual evalúa características como: funcionalidad, en la que se involucra lo referente al grupo de características, capacidades y seguridad; usabilidad, allí se evalúa la consistencia de la interface de usuario, ayuda al contexto, asistentes, documentación y materiales para el aprendizaje; confiabilidad, incluye la frecuencia y la severidad de los fallos, capacidad de recuperación ante fallos, exactitud en la salida y tiempo promedio de fallas; rendimiento, relacionado con la velocidad de procesamiento, tiempos de respuesta, consumo de recursos y eficacia; capacidad de soporte, en la que se evalúa extensibilidad, adaptabilidad, capacidad de prueba, configuración, compatibilidad y requisitos de instalación; finalmente el +, involucra factores como requerimientos de diseño, implementación, interface y requisitos [14], [16]. El modelo MOSCA (modelo sistémico de calidad) enfatiza en la necesidad de evaluar el producto y el proceso de desarrollo. Para la investigación, sólo se tendrá en cuenta el producto, debido a que no se involucra el desarrollo de una aplicación. El producto se evalúa desde seis categorías: funcionalidad, fiabilidad, usabilidad, eficiencia, mantenibilidad y portabilidad, las cuales son valoradas a partir de los aspectos contextuales e internos del producto. Los contextuales aluden a la comodidad del usuario y los internos hacen referencia a las buenas prácticas de diseño y programación. Por las características de la investigación sólo se incluirán las contextuales. En la funcionalidad se incluye el ajuste a los propósitos, la precisión, la interoperabilidad y la seguridad; la fiabilidad involucra la madurez, la tolerancia a fallos y la recuperación; la usabilidad consta de la facilidad de comprensión, la capacidad de aprendizaje, la interfaz gráfica, la operabilidad y el uso de estándares; la eficiencia comprende el comportamiento en el tiempo y la utilización de recurso; la mantenibilidad abarca la capacidad de análisis, facilidad de cambio, estabilidad y capacidad de prueba; finalmente, la portabilidad consta de la adaptabilidad, la capacidad de instalación, la coexistencia y la capacidad de remplazo [17]. Por último, se incluye la familia de normas ISO/IEC 25000, conocida como SQuaRE (Software Product Quality Requirements and Evaluation). Es un modelo centrado en la calidad del producto, que se presenta como la evolución de las normas ISO/IEC 9126y la ISO/IEC Las categorías que involucra la norma son la funcionalidad (idoneidad, 27

29 precisión, interoperabilidad, seguridad), fiabilidad (madurez, tolerancia a fallos, capacidad de recuperación), usabilidad (inteligibilidad, facilidad de aprendizaje, capacidad de ser usado, estética de la interfaz de usuario), eficiencia (comportamiento en el tiempo, utilización de recursos), mantenibilidad (analizabilidad, capacidad de ser modificado, estabilidad, capacidad de prueba) y portabilidad (adaptabilidad, facilidad de instalación, coexistencia e intercambiabilidad) [18]. TABLA I COMPARATIVO ENTRE LOS MODELOS DE CALIDAD Modelo de Calidad McCall (1977) Garvin (1984) Furps+ (1987) Áreas de Evaluación Operación del producto Revisión del producto Transición del producto Rendimiento Características Confiabilidad Conformidad Durabilidad Capacidad de servicio Estética Calidad percibida Funcionalidad Usabilidad Confiabilidad Rendimiento Capacidad de soporte Factores que involucra Exactitud Confiabilidad Eficiencia Integridad Usabilidad Mantenibilidad Capacidad de prueba Flexibilidad Interoperabilidad Portabilidad Reusabilidad Valor al usuario Valor agregado Fallas posibles Cumplimiento normas Vida útil Mantenimiento Apariencia producto Evaluación imagen, publicidad y marca Características Capacidades Seguridad Consistencia interface Ayuda al contexto Asistentes Documentación Materiales para el aprendizaje Frecuencia y severidad de fallas Recuperación ante fallas Tiempo de fallas Velocidad de procesamiento Tiempos de respuesta Consumo de recursos Eficacia Extensibilidad Adaptabilidad Capacidad de prueba Capacidad de configuración Compatibilidad Requisitos de instalación MOSCA (2005) Funcionalidad Fiabilidad Usabilidad Eficiencia Mantenibilidad Portabilidad V. RESULTADOS Ajuste a los propósitos Precisión Interoperabilidad Seguridad Madurez Tolerancia a fallos Recuperación Facilidad de comprensión Capacidad de aprendizaje Interfaz gráfica Operabilidad Uso de estándares Comportamiento en el tiempo Utilización de recurso Capacidad de análisis Facilidad de cambio Estabilidad Capacidad de prueba Adaptabilidad Capacidad de instalación Coexistencia Capacidad de remplazo A. Dimensiones a Involucrar en la Investigación. Al revisar los antecedentes, el modelo pedagógico institucional para la educación virtual y algunos modelos para la evaluación de calidad de software. Se han definido para la Universidad de Boyacá dimensiones y características que sustentan la evaluación y selección del LMS que ha de soportar la oferta virtual. Las dimensiones definidas son tres: modelo pedagógico, usuario y técnica. A continuación se describen cada una de ellas. La dimensión del modelo pedagógico consiste en la evaluación de las características que pueden beneficiar el proceso enseñanza-aprendizaje, tomando como base el modelo institucional, y de los intereses de la vicerrectoría enmarcados en la inclusión y la cobertura. Las características involucradas en esta dimensión son: inclusión 6, en el cual se evalúa la manera en que la herramienta permita ampliar la cobertura a personas con necesidades especiales o personas que no puede desplazarse a procesos de formación presencial; evaluación formativa, se concentra en la evaluación de la manera en que se hace la realimentación durante el proceso enseñanza-aprendizaje, así como 6 Característica involucrada en el principio de accesibilidad de la W3C en la sección designing for inclusión [19] 28

30 los escenarios de coevaluación, heteroevaluación y autoevaluación; evaluación continua, se centra en la forma en que se realiza la evaluación, si es equitativa, clara y permite al educando asumir el proceso sin ambigüedades; y finalmente aprendizaje efectivo que incluye la posibilidad que los educandos personalicen el entorno de trabajo según sus preferencias, las herramientas que fomentan el aprendizaje autónomo, la reflexión y el trabajo colaborativo. La dimensión del usuario está integrada por: accesibilidad en donde se evalúa la manera en que se presenta la información y la manera en que se controla el acceso a la aplicación; la usabilidad se centra en la evaluación de lo sencillo que puede resultar su uso, la navegabilidad que ofrece y el seguimiento que se puede realizar a las actividades realizadas y pendientes por parte de los usuarios; y herramientas que involucra una evaluación de chat, videoconferencia, audioconferencia, foros, listas de distribución, correo electrónico, wiki, repositorio, blog, anuncios, agenda, construcción de contenidos y administración de usuarios. La dimensión técnica implica la evaluación del producto. Las características incluidas son las siguientes: adaptabilidad, interoperabilidad, portabilidad, empaquetamiento, durabilidad, funcionalidad, confiabilidad, reutilización y eficiencia. TABLA II MODELO DE EVALUACIÓN DE LMS DE LA UNIVERSIDAD DE Dimensión Modelo pedagógico (Puntaje 14) Del Usuario (Puntaje 20) Técnica (Puntaje 16) BOYACÁ Características Inclusión (Puntaje 10) Evaluación formativa (Puntaje 9) Evaluación continua (Puntaje 6) Aprendizaje efectivo (Puntaje 6) Accesibilidad (Puntaje 7) Usabilidad (Puntaje 9) Herramientas (Puntaje 10) Durabilidad (Puntaje 4) Empaquetamiento(Puntaje 2) Confiabilidad (Puntaje 10) Funcionalidad (Puntaje 9) Eficiencia (Puntaje 9) Reutilización (Puntaje 2) Interoperabilidad y portabilidad (Puntaje 10) En la Tabla I muestra el resumen del modelo de evaluación de LMS de la Universidad de Boyacá, con sus correspondientes ponderaciones. El puntaje máximo que puede tener una plataforma al evaluar las tres dimensiones es de 50 puntos, y su ponderación se ha hecho de acuerdo a los intereses de la Vicerrectoría de Educación Virtual de la Universidad de Boyacá. Cada dimensión es evaluada a partir de sus características, las cuales fueron ponderadas dependiendo de la importancia que cada una de ellas tiene para la dimensión, según el criterio de los investigadores. La fórmula empleada para calcular el puntaje de cada dimensión se obtiene con la ponderación de cumplimiento de las características divido en el puntaje máximo que pueden sumar estas, multiplicado por el puntaje asignado a la dimensión. (1) Donde C i hace referencia al porcentaje de cumplimiento de cada una de las características. P i es el puntaje asignado a cada característica. M es el puntaje de la dimensión. Finalmente para calcular el puntaje de la herramienta LMS, se suman los puntajes de cada una de las dimensiones. (2) B. LMS Seleccionados para la Investigación. TABLA III LMS CANDIDATAS A INCLUIRSE EN EL ESTUDIO LMS MOODLE 8 CLAROLINE 5 ATUTOR 3 ILIAS DOKEOS SAKAI 2 OLAT BOLINOS CHEF CLOSE ELEDGE FLE3 1 LONCAPA MANHATTAN LRD DOCEBO EFRONT Total de Estudios que la Incluyen 29

31 Finalmente, la selección de los LMS se realizó al revisar diez estudios entre el año 2003 y el En el que se involucraron experiencias de España, Croacia, Eslovenia, Venezuela, Costa Rica, Turquía y Arabia Saudita. Luego se estableció una tabla (Tabla II) en donde se listó la cantidad de veces que los LMS fueron incluidos en los estudios. De allí se seleccionaron los tres primeros Moodle, Claroline y Atutor. Junto con la herramienta propietario que actualmente posee la Universidad de Boyacá, y Chamilo LMS que ha tenido un crecimiento significativo en los últimos años. VI. CONCLUSIONES Y TAREAS FUTURAS A. Conclusiones La revisión de antecedentes en los que se involucra la evaluación de LMS muestra como tendencia de los investigadores la revisión de la dimensión técnica y la dimensión del usuario, con lo que se deja de lado el desarrollo que se pueda dar al modelo pedagógico institucional a través del LMS. Por tal motivo se considera que la investigación que se adelanta en estos momentos por el grupo EDUTIC, se convierte en una propuesta de evaluación complementaria. En la que se vinculan tres dimensiones de evaluación para determinar la conveniencia o no del uso de un LMS para soportar la oferta virtual académica de la Universidad de Boyacá. Las dimensiones involucradas en el estudio son la dimensión del modelo pedagógico, la dimensión del usuario, y finalmente, la dimensión técnica. La forma en que ha sido definida la propuesta de evaluación de los LMS, reconoce la injerencia de dos áreas de conocimiento: la primera, la ingeniería del software como soporte teórico para la dimensión del usuario y la dimensión técnica. Con lo que se acepta que parte del proyecto se desenvuelve en un escenario de evaluación de software; y la segunda, conformada por la pedagogía y la didáctica, debido a que el proyecto requiere evaluar la relación enseñanza-aprendizaje, la interacción usuariousuario y usuario-plataforma, con el fin de lograr los objetivos de aprendizaje que se han de ofertar en los cursos virtuales de la Universidad de Boyacá. La ponderación propuesta en el presente documento responde a las necesidades de la Vicerrectoría de Educación Virtual de la Universidad de Boyacá, identificadas por el grupo de investigación EDUTIC. Por tal motivo se considera que la ponderación de dimensiones y características deben ser ajustadas a los intereses particulares de las organizaciones, sólo de esta manera la selección de un LMS estará acorde con las expectativas de las instituciones educativas. B. Tareas Futuras Al realizar estos primeros pasos, las tareas que deben desarrollarse a futuro son las siguientes: 1) Diseño y validación de los instrumentos de evaluación para cada característica 2) Diseño de un curso virtual y selección de los educandos que participan como testers 3) Preparación de las máquinas virtuales para el montaje de cada una de los LMS 4) Aplicación de los instrumentos 5) Comparación de los resultados obtenidos y selección de la herramienta 6) Pruebas de desempeño en situaciones reales de funcionamiento REFERENCIAS [1] M. Gisbert (2002, feb). El nuevo rol del profesor en entornos tecnológicos. Acción pedagógica [Online]. 11(1), pp Disponible en: pdf [2] S. Delgado, Elearning análisis de plataformas gratuitas, Proyecto de fin de Carrera, Ing. Informática, Universidad de Valencia. España, [3] J. Itmazi, M. Gea, P. Paderewski y F. Gutiérrez. A comparison and evaluation of open source learning management systems. Presentado en IADIS International Conference Applied Computing [Online]. Disponible https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=w eb&cd=1& cad=rja&ved=0cc0qfjaa&url=https%3a%2f%2fmoodle.org %2Fplugin file.php%2f554%2fmod_forum%2fattachment%2f102498%2 FJamil1.pdf &ei=kyoputnhloawqqhdh4fi&usg=afqjcnfoatod5ezz 8WSiiXfa mvmkmbfpzg [4] K. Fertalj, H. Jerkovic y N. Hlupic. Comparison of e-learning management systems. Presentado en the 5th WSEAS International Conference on EACTIVITIES [Online]. Disponible en: 20of%20eL MS.pdf en: 30

32 [5] M. Chacón-Rivas, y I. Solano. Modelo pedagógico para una plataforma LMS. Presentado en EDUTEC [Online]. Disponible en: C_edutec_09_ def.pdf [6] C. Aydin, y G. Tirkes. Open source learning management systems in distance learnig. Presentado en TOJET: The Turkish Online Journal of Educational Technology [Online]. Disponible en: [7] S. Alshomrani (2012, mar). Evaluation of technical factors in distance learning with respect to Open Source LMS. Asian Transactions on Computers [Online]. 2(1), pp Disponible en: /ATC pdf [8] R. Correal, C. Montañez, J. Torres, V. Avendaño y Y. Ramírez (2009). Educación Virtual. Prácticas transformadoras de los procesos pp [9] Advanced Distributed Learning. (2013, may, 14). Choosing a Learning Management System. (Versión 3.0) [Online]. Disponible en: [10] A. Brown, J. Johnson. (2007, jul). Five advanteges of using a learning management system. Microburs Learning [Online]. Disponible en: 20of%20Usin g%20a%20learning%20management%20system.pdf [11] L. Ortíz (2007, jun). Campus Virtual: la educación más allá del LMS. Revista de universidad y sociedad del conocimiento [Online]. 4(1), pp Disponible en: [12] R. López (2012, abr). LMS respuesta al aprendizaje del siglo XXI. Revista EducaPR [Online]. 1(1), pp Disponible en: f [13] J. Hilera y R. Hoya. (2010). Estándares de e-learning: guía de consulta. Universidad de Alcalá [Online]. Disponible en: [14] D. Jamwal (2010, dic). Analysis of software quality models for organizations. International Journal of Latest Trends in Computing [Online]. 1(2), pp Disponible en: [15] O. Pérez y M. Torres, Propuesta para la obtención del Premio Nacional de Calidad para el grupo COPOLUSA, Proyecto de fin de Carrera, Admón. De Empresas, Universidad de las Américas Pueba. México, [16] P. Eeles. (s.f.). Non-functional requeriments. IBM [Online]. Disponible en: [17] L. Mendoza, M. Pérez y A. Grimán (2005). Prototipo de modelo sistemático de calidad (MOSCA) del software. Computación y sistemas [Online]. 8(3), pp Disponible en: 691/2252 [18] SQuaRE, ISO/IEC 25000, 2005 [19] W3C (2012). Designing for inclusión. [Online]. 31

33 Comparación de Dispositivos Biomédicos en Colombia 7 Omar Hernando Moreno Torres Resumen Se presenta el análisis de una serie de dispositivos biomédicos, caracterizados a partir de su funcionalidad y de las clasificaciones impuestas por la legislación colombiana y la Organización Mundial de la Salud hasta el año 2013, con la finalidad de interactuar con una serie de servicios de atención médica, basados en el estándar de almacenamiento de imágenes médicas y transmisión de información DICOM, e implementación del intercambio electrónico de datos clínicos, a través del estándar HL7, lo anterior se presenta como parte del desarrollo de la tesis de maestría titulada PLATAFORMA DE INTEROPERABILIDAD DE SERVICIOS DE ATENCIÓN MÉDICA BASADOS EN EL ESTÁNDAR DICOM Y HL7. En el trabajo se presenta inicialmente una revisión del estado actual de las leyes, artículos y normativas más importantes en lo referente al tema de dispositivos biomédicos; posteriormente se utiliza una metodología de comparación a partir de ciertas particularidades definidas en los dispositivos biomédicos. Por último se presenta una recomendación de algunos dispositivos que pueden interactuar con la plataforma a construir. Palabras Claves DICOM, dispositivos biomédicos, HL7, interoperabilidad. Abstract This paper presents the analysis of a number of biomedical devices, characterized from its functionality and the classification imposed by Colombian legislation and the World Health Organization until 2013, in order to interact with a range of health care services, based on the standard storage and transmission of medical images DICOM, and implementation of electronic exchange of clinical data through HL7 standard, These are provided as part of the development of the master's thesis entitled PLATAFORMA DE INTEROPERABILIDAD DE 7 Date for submitted: Diciembre 15 de Producto de investigación de la tesis PLATAFORMA DE INTEROPERABILIDAD DE SERVICIOS DE ATENCIÓN MÉDICA BASADOS EN EL ESTÁNDAR DICOM Y HL7 de la Maestría en Tecnología Informática UPTC. Ingeniero de Sistemas y Computación, docente UPTC - Tunja, SERVICIOS DE ATENCIÓN MÉDICA BASADOS EN EL ESTÁNDAR DICOM Y HL7. The paper reviews the current status of the laws, regulations and important items were initially presented with regard to the issue of biomedical devices; later, comparison methodology used from certain features defined in biomedical devices. Finally, a recommendation of certain devices that can interact with the platform. Keywords DICOM, biomedical devices, HL7, interoperability. E INTRODUCTION L campo de la telemedicina[1], telediagnósis[2] y teleatención[2], implica una serie de esfuerzos orientados a construir soluciones a partir de herramientas tecnológicas que acerque a las comunidades deficientes económicamente o que por condiciones geográficas dificultan el acceso a servicios de especialistas en tiempo real. Teniendo como presente el estamento anterior, se optó por la construcción de una plataforma que interoperara una serie de servicios médicos a partir de la información generada en los procedimientos médicos en formato DICOM[3] en los cuales se involucren dispositivos biomédicos[4] según la categorización de la legislación colombiana hasta el año 2013; de igual forma que se consideran las recomendaciones dadas por la Organización Mundial de la Salud[5], ente internacional que define las regulaciones y adopción de estándares en lo referente a diagnósticos, tratamientos y demás procedimientos médicos. Como parte del desarrollo del proyecto PLATAFORMA DE INTEROPERABILIDAD DE SERVICIOS DE ATENCIÓN MÉDICA BASADOS EN EL ESTÁNDAR DICOM Y HL7, fue necesario realizar un análisis exhaustivo de las características de los posibles dispositivos biomédicos que podrían 32

34 intervenir en la estandarización de información que surge a partir de la realización de ciertos tratamientos y procedimientos médicos, y determinar así aquellos que intervendrían directamente en el desarrollo de la plataforma propuesta. INTRODUCCIÓN A LOS DISPOSITIVOS BIOMÉDICOS Los dispositivos biomédicos representan una gran gama de implementaciones que son beneficiosas para los seres humanos garantizando su salud y bienestar. Según la World Healt Organizaction (WHO) [5], los dispositivos médicos, o biomédicos dependiendo de las prestaciones que le brinden a los seres humanos, se definen como un artículo, instrumento, aparato o máquina que se utiliza para la prevención, el diagnóstico o el tratamiento de una enfermedad, o para detectar, medir, restablecer, corregir o modificar la estructura o la funcionalidad del organismo con algún propósito, médico o sanitario [5]; estas tecnologías biomédicas incluyen: dispositivos, equipos, sistemas, programas, suministros, fármacos, biotecnológicos, procedimientos médicos y quirúrgicos. De igual forma, dentro de la legislación Colombiana, el Ministerio de protección social define los dispositivos biomédicos para uso humano como un dispositivo médico operacional y funcional que reúne sistemas y subsistemas eléctricos, electrónicos o hidráulicos, incluidos los programas informáticos que intervengan con su buen funcionamiento, destinado por el fabricante a ser usado en seres humanos con fines de prevención, diagnóstico, tratamiento o rehabilitación [4]. Esta tecnología biomédica posee un gran auge dentro de la comunidad médica desde hace varios años, lo cual ha desencadenado en la aparición de nuevos campos de aplicación, es así que dicha tecnología es posible de clasificarla de acuerdo a su utilización, tal como lo plantea [3]: Tecnología biomédica para diagnóstico[6][7][8]. Tecnología biomédica para tratamiento y mantenimiento de la vida[8][9]. Tecnología biomédica para rehabilitación[9]. Tecnología biomédica para prevención[10][11][12]. Tecnología biomédica para análisis de laboratorio[12][13]. CLASIFICACIÓN DE LOS DISPOSITIVOS BIOMÉDICOS Según el INVIMA, los dispositivos médicos, son considerados un componente fundamental para la prestación de servicios de salud, donde se presume que el 60% de los elementos usados en los hospitales representados en aproximadamente tipos diferentes de dispositivos médicos [3], y definidos y regulados por el Decreto 4725 de 2005 [2]. La categoría más importante dentro de la legislación Colombiana, así mismo en países como Perú donde rigen su actuación a través de la Ley Nº 29459, Ley de los Productos farmacéuticos, y la Ley Nº 27657, Ley del Ministerio de Salud [4]. Los criterios de clasificación de este tipo de dispositivos se basan en la duración de contacto con el cuerpo, el grado de invasión, y efecto local contra efecto sistémico[13]. Equipos Clase I Denominados equipos de Bajo Riesgo, sujetos a controles generales, no destinados para proteger o mantener la vida o para un uso de importancia especial en la prevención del deterioro de la salud humana y que no representan un riesgo potencial no razonable de enfermedad o lesión [2][4]. Equipos Clase II Denominados equipos de Riesgo Moderado, según el Ministerio de la Protección Social, determinado dos clases de dispositivos médicos dependiendo del nivel del riesgo que presenten. Éstos son[13]: Clase IIa: Dispositivo de Riesgo Moderado. Son los dispositivos médicos de riesgo moderado, sujetos a controles especiales en la fase de fabricación para demostrar su seguridad y efectividad [2]. Clase IIb: Dispositivos de Alto Riesgo. Este tipo de maquinaria, son los dispositivos médicos de riesgo alto, sujetos a controles especiales en el diseño y fabricación para demostrar su seguridad y efectividad [2]. 33

35 Clase III. Son los dispositivos médicos declarados como de muy alto riesgo sujetos a controles especiales, destinados a proteger o mantener la vida o para uso de importancia sustancial en la prevención del deterioro de la salud humana, o si su uso presenta un riesgo potencial de enfermedad o lesión [2]. Según la clasificación explicada anteriormente se presenta la Tabla1, la cual conjuga una clasificación de dispositivos médicos según categoría y riesgo sanitario. EQUIPO BIOMÉDICO DE TECNOLOGÍA CONTROLADA La política del Sistema de Gestión de Tecnología Biomédica define a los Equipos Biomédicos como dispositivo médico operacional y funcional que reúne sistemas y subsistemas eléctricos, electrónicos o hidráulicos, incluidos los programas informáticos que intervengan en su buen funcionamiento, destinado por el fabricante a ser usado en seres humanos con fines de prevención, diagnóstico, tratamiento o rehabilitación. No constituyen equipo biomédico, aquellos dispositivos médicos implantados en el ser humano o aquellos destinados para un sólo uso [5]. El Ministerio de Protección Social de Colombia, dentro de lo regulado, legislado y demás actos jurídicos que posee bajo su jurisprudencia define aquellas normas y estándares de fabricación y adquisición en lo concerniente a los Equipos Biomédicos en el país, al igual que aquello definido y estipulado por la Ley 715 de 2001 [2]. A continuación se muestra la Tabla 1, donde se consigna un listado de dispositivos biomédicos de tecnología controlada altamente utilizados en el medio [6], tomada del decreto número 4725 del 26 de Diciembre del 2005 por parte del Ministerio de Protección Social de Colombia, y que actualmente rige las disposiciones de compra, construcción, comercialización y cualquier tipo de adquisición nacional o extranjera de este tipo de aparatos. TABLA 1. LISTADO DE DISPOSITIVOS BIOMÉDICOS COLOMBIA. Dispositivo Servicio Clasificación Riesgo Electrocardiograma Diagnóstico Clase IIa Desfibrilador T/M 8 Clase III Bomba de infusión T/M Clase IIa Mesa de cirugía T/M Clase I Incubadora T/M Clase IIb Electroencefalógrafo Diagnóstico Clase IIb Tomógrafo Diagnóstico Clase III Ecógrafo Diagnóstico Clase I Rayos X Diagnóstico Clase IIa Monitor de Signos Vitales T/M Clase I Nebulizador Rehabilitación Clase I Centrifugas Análisis Clase IIa Medidor de acidez Análisis Clase I Electromigrafo T/M Clase IIb Refrigeradores para bancos de sangre Análisis Clase I Máquina de hemodiálisis T/M Clase IIb Respirador Diagnóstico Clase IIb Capnografo Diagnóstico Clase I Electroestimulador Rehabilitación Clase IIa Ventilador mecánico T/M Clase I Electrobisturí T/M Clase I Desfibrilador T/M Clase III COMPARACIÓN DE EQUIPOS BIOMÉDICOS Se define la siguiente comparación a partir de una metodología de construcción de escenarios comparativos definida a partir del año 2010, la cual expresa como la más importante finalidad la categorización de una serie de herramientas, dispositivos, modelos, entre otros a partir de la categorización de los mismos [7][8]. En primera instancia se definió el nivel de importancia de los criterios a evaluar en cada una de las características tomadas de los dispositivos biomédicos que intervienen en la presente comparación, tal como se muestra en la Tabla 2 la Tabla 2. TABLA 2. VALORES DE LOS NIVELES DE IMPORTANCIA DE LAS CARACTERÍSTICAS. Nivel de importancia Peso Obligatorio 70 Deseable en alto grado 30 Deseable 10 Irrelevante 0 Seguidamente, se especificó el grado de obligatoriedad de las características deseables de los dispositivos biomédicos a partir de las características 8 TM: Abreviatura para definir equipos de Tratamiento y Mantenimiento. 34

36 extraídas de la clasificación realizada por la legislación colombiana, como se muestra en la Tabla 3. TABLA 3. GRADO DE OBLIGATORIEDAD DE LAS CARACTERÍSTICAS. Característica Obligatoriedad Clase I No Clase IIa Si Clase IIb Si Clase III Si De Diagnóstico Si De Rehabilitación No De Tratamiento y Mantenimiento No Aplicando lo planteado en la Tabla 2 y en la Tabla 3 se tiene como resultado los valores establecidos en la Tabla 4. TABLA 4. RESULTADO DE APLICAR NIVELES DE PONDERACIÓN Y OBLIGATORIEDAD. Característica Nivel de ponderación Ponderación Clase I 10 5 Clase IIa Clase IIb Clase III De Diagnóstico De Rehabilitación De Tratamiento y 0 0 Mantenimiento Totales % El valor total de 280, va a ser el valor máximo sobre el cuál se van a evaluar posteriormente cada una de las características definidas en el estudio sobre el criterio definido a continuación. El criterio es el elemento que define el comportamiento deseado por cada uno de los dispositivos parte de la investigación. Este criterio está definido a partir de la inclusión del estándar DICOM en la funcionalidad del dispositivo biomédico, o en los procedimientos soportados por el mismo. Lo anterior con la finalidad de crear un marco homogéneo de comunicación entre ciertos dispositivos biomédicos y la plataforma de gestión y administración de información proveniente de los mismos. Dicho criterio posee un componente cuantitativo tal como se ve en la Tabla 5. Como argumentación a cada uno de los criterios se tiene la explicación de los mismos de la siguientes: soporte de archivos DICOM, posee el valor más alto ya que de esta forma se garantiza la comunicación esperada entre el dispositivo y la plataforma, permiten dicomizadores, según el formato de manipulación de la información es posible dicomizarla y adaptarla al esquema exigido por la plataforma; N/A, debido a que el dispositivo según su funcionalidad no posee ninguna relevancia con el estudio. TABLA 5. CRITERIO DE EVALUACIÓN. Criterio Valor Soporte de archivos DICOM 5 Permiten Dicomizadores 3 N/A 1 Seguidamente se define el esquema reflejado en la Tabla 6, dónde se disponen los dispositivos biomédicos en comparación a la categorización definida por las necesidades del macro proyecto, con los valores propuestos por la ponderación estipulada en la Tabla 4 y con el valor de la evaluación del criterio de la Tabla 5. TABLA 6. VALORES DE EVALUACIÓN DE CRITERIO (1). Ponderación Equipo Clase I Clase IIa Clase IIb Clase III Electrocardiograma Desfibrilador Bomba de infusion Mesa de cirugía Incubadora Electroencefalógrafo Tomógrafo Ecógrafo Rayos X Monitor de Signos Vitales Nebulizador Centrifugas Medidor de acidez Electromigrafo Refrigeradores para bancos de sangre Máquina de hemodiálisis Respirador Capnografo Electroestimulador Ventilador mecánico Electrobisturí Desfibrilador Como resultado final se tiene la multiplicación del criterio por el porcentaje de ponderación definido anteriormente, y su totalización, como se ve en la Tabla 7. A partir de los resultados expuestos es posible realizar el análisis de aquellos dispositivos apropiados a utilizar. 35

37 TABLA 7. VALORES DE EVALUACIÓN DE CRITERIO (2). Ponderación Equipo Diagnóstico Rehabilitación T/M Electrocardiograma Desfibrilador Bomba de infusion Mesa de cirugía Incubadora Electroencefalógrafo Tomógrafo Ecógrafo Rayos X Monitor de Signos Vitales Nebulizador Centrifugas Medidor de acidez Electromigrafo Refrigeradores para bancos de sangre Máquina de hemodiálisis Respirador Capnografo Electroestimulador Ventilador mecánico Electrobisturí Desfibrilador TABLA 8. RESULTADOS FINALES DE LA COMPARACIÓN (1). Ponderación EQUIPO Clase I Clase IIa Clase IIb Clase III Electrocardiograma 0,05 0,5 0,25 0,25 Desfibrilador 0,05 0,1 0,25 1,25 Bomba de infusión 0,05 0,5 0,25 0,25 Mesa de cirugía 0,15 0,1 0,25 0,25 Incubadora 0,05 0,1 1,25 0,25 Electroencefalógrafo 0,05 0,1 1,25 0,25 Tomógrafo 0,05 0,1 0,25 1,25 Ecógrafo 0,25 0,1 0,25 0,25 Rayos X 0,05 0,5 0,25 0,25 Monitor de Signos Vitales 0,15 0,1 0,25 0,25 Nebulizador 0,15 0,1 0,25 0,25 Centrifugas 0,05 0,3 0,25 0,25 Medidor de acidez 0,15 0,1 0,25 0,25 Electromigrafo 0,05 0,1 1,25 0,25 Refrigeradores para bancos de sangre 0,15 0,1 0,25 0,25 Máquina de hemodiálisis 0,05 0,1 0,75 0,25 Respirador 0,05 0,1 1,25 0,25 Capnografo 0,25 0,1 0,25 0,25 Electroestimulador 0,05 0,3 0,25 0,25 Ventilador mecánico 0,15 0,1 0,25 0,25 Electrobisturí 0,15 0,1 0,25 0,25 Desfibrilador 0,05 0,1 0,25 1,25 TABLA 9. RESULTADOS FINALES DE LA COMPARACIÓN (2). Ponderación Total EQUIPO Diagnóstico Rehabilitación T/M Electrocardiograma 1,25 0,1 0 2,4 Desfibrilador 0,25 0,1 0 2 Bomba de infusión 0,25 0,1 0 1,4 Mesa de cirugía 0,25 0,1 0 1,1 Incubadora 0,25 0,1 0 2 Electroencefalógrafo 1,25 0,1 0 3 Tomógrafo 1,25 0,1 0 3 Ecógrafo 1,25 0,1 0 2,2 Rayos X 1,25 0,1 0 2,4 Monitor de Signos Vitales 0,25 0,1 0 1,1 Nebulizador 0,25 0,1 0 1,1 Centrifugas 0,25 0,1 0 1,2 Medidor de acidez 0,25 0,1 0 1,1 Electromigrafo 0,25 0,1 0 2 Refrigeradores para bancos de sangre 0,25 0,1 0 1,1 Máquina de hemodiálisis 0,25 0,1 0 1,5 Respirador 1,25 0,1 0 3 Capnografo 1,25 0,1 0 2,2 Electroestimulador 0,25 0,3 0 1,4 Ventilador mecánico 0,25 0,1 0 1,1 Electrobisturí 0,25 0,1 0 1,1 Desfibrilador 0,25 0,1 0 2 A partir de los resultados mostrados en la Tabla 9, es posible identificar los dispositivos biomédicos altamente recomendables para intervenir en la gestión y administración de información en la plataforma de interoperabilidad de servicios médicos. De igual forma es posible realizar un análisis gráfico según lo muestra el Figura 1, de los dispositivos mejor puntuados, según el comportamiento de los criterios evaluados en la comparación respecto a cada una de las características definidas. Fig 1. Resultados de la comparación. Fuente el autor. CONCLUSIONES La selección de los dispositivos biomédicos a partir de la clasificación definida en la legislación colombiana en potestad del Ministerio de Protección Social fue un gran aporte altamente importante como primer paso en el desarrollo de la plataforma de telemedicina, ya que posibilitó distinguir las características y funcionalidades de aquellos que interactuarán con la plataforma, tomando como eje 36

38 central el cumplimiento de características definidas por el estándar DICOM, independiente de la aplicabilidad, servicios y procedimientos médicos que están sujetos a este tipo de instrumentación, definiendo un ambiente heterogéneo de interoperabilidad entre un número de dispositivos de los especificados en el Decreto 4725 de Diciembre 26 del 2005 de la Ley Colombiana. A partir de la clasificación obtenida, es posible diseñar una serie de informes técnicos y modelos donde se analice aspectos de comunicación y transferencia de información, además de conformación y depuración de archivos de tipo DICOM provenientes de los datos resultantes de la ejecución de procedimientos médicos vinculados a los dispositivos elegidos. REFERENCIAS [1] D. L. Paul, K. E. Pearlson, and R. R. McDaniel, Assessing technological barriers to telemedicine: technology-management implications, IEEE Trans. Eng. Manag., vol. 46, no. 3, pp , [2] J. E. Pezoa and R. L. Figueredo, DERMASYSTEM : un prototipo de sistema web para DERMASYSTEM : un prototipo de sistema web para teleconsultas dermatológicas, [3] M. Mustra, K. Delac, and M. Grgic, Overview of the DICOM Standard, no. September, pp , [7] P. de las N. para el D. Unidas, Propuesta para la mejora de los procedimientos técnicoadmisnitrativos de incorporación de tecnología biomédica, vol. 0. Provincia del Neuquén-Argentina, [8] K. Eliana and M. Salazar, Manual de proteocolos de mantenimiento de equipos biomédicos para el hospital Susana López Valencia E.S.E [9] D. Médicos, Evaluación y Gestión de Equipo Biomédico, [10] L. Cubillos, EVALUACIÓN DE TECNOLOGÍAS EN SALUD: APLICACIONES Y RECOMENDACIONES EN EL SISTEMA DE SEGURIDAD. [11] R. Ingenier, Ingeniería Clínica para no ingenieros : adquisición de equipos médicos, pp , [12] Ministerio de Sanidad, Prevención del VIH a través de las nuevas tecnologías de la información y la comunicación, Madrid - España, [13] INSTITUTO NACIONAL DE CANCEROLOGIA, POLÍTICA DEL SISTEMA DE GESTIÓN DE LA TECNOLOGÍA BIOMÉDICA. Colombia, [4] Ministario de Protección Social, DECRETO NÚMERO 4725 DE 2005 (Diciembre 26), vol. 2005, no. Diciembre 26. Colombia, 2005, p. 3. [5] Organización Mundial de la Salud, Evaluación de tecnologías sanitarias aplicada a los dispositivos médicos. Ginebra: Organización Mundial de la Salud, 2012, p. 66. [6] Universidad Politécnica de Madrid, Centro de tecnología biomédica. 37

39 Inteligencia de Negocios Espaciales Orientada al Análisis de datos sobre pruebas Saber 11 del Instituto Colombiano para la Evaluación de la Educación a Nivel Nacional Christiam Alejandro Niño Peña, Autor, Gustavo Cáceres Castellanos, Director Abstract The article focuses on a brief but comprehensive review of the spatial business intelligence also called SOLAP, also presents a series of steps that allow to apply SOLAP on a real project, from the initial processing of the data in the design of the spatial data warehouse, modeling of the spatial cube schema, spatial data mining and the user interface of results according to factors required for this purpose "maps and graphics statistics", databases used were ICFES Saber 11 of the years 2005 to 2012 as input information; in the project used Free Software evidencing its utility and showing how different applications can be used together to develop a support for decision making spatial. Index Terms Spatial Business Intelligence, Spatial Data Warehouse, Spatial Data Mining, Geographic Information Systems, Online Spatial Analytical Processing. Resumen El artículo se centra en una breve pero completa revisión de la inteligencia de negocio espacial también llamado SOLAP, también presenta una serie de pasos que permiten aplicar SOLAP en un proyecto real, desde el procesamiento inicial de los datos en el diseño del almacén de datos espaciales, modelado del esquema de cubo espacial, minería de datos espacial y la interfaz de usuario de los resultados de acuerdo a los factores necesarios para este fin "mapas y estadísticas gráficas", las bases de datos utilizadas fueron ICFES Saber 11 de los años 2005 a 2012, como información de entrada, en el proyecto se utiliza Software Libre evidenciando su utilidad y mostrando cómo las diferentes aplicaciones se pueden utilizar en conjunto para desarrollar un soporte para la toma de decisiones espaciales. Palabras clave Inteligencia de Negocios Espaciales, Almacén de Datos Espaciales, Minería de Datos Espaciales, Sistemas de Información Geográfica, Procesamiento Analítico en Línea Espacial. L INTRODUCCIÓN a información almacenada en una organización a través del tiempo puede contener datos de cualquier tipo: enteros, flotantes, caracteres, cadenas de caracteres (String), booleanos, entre otros. Al mismo tiempo estos datos se relacionan con procesos y procedimientos en diversas temáticas en sectores educativos, sociales, empresariales o políticos, que requieren de análisis de resultados o cifras históricas para cumplir con las metas propuestas actuales y futuras. Para obtener respuestas se utilizan técnicas de inteligencia de negocios que resultan bastante útiles y que proporcionan un amplio marco de referencia para la toma de decisiones sobre los posibles problemas a contemplar, sin embargo, estos análisis se quedan cortos o incompletos cuando se quiere obtener información que compromete un sitio, lugar o marco geográfico [1]. Teniendo en cuenta lo anterior se incorporó al análisis de toma de decisiones datos de tipo espacial o geométrico como: puntos, polígonos y líneas que permiten analizar la información desde otro nivel o perspectiva, incorporando herramientas y técnicas con estos datos, a esto se le denomina Inteligencia de Negocios Espaciales [2]. En la aplicación de inteligencia de negocios espaciales se realizan una serie de etapas que en su orden permiten estructurar elementos para soporte en la toma de decisiones, se comienza con los datos transaccionales históricos recolectados con su 38

40 componente espacial, luego se procede a la extracción, transformación y carga para diseñar y construir la bodega de datos espacial, posteriormente se analizan y diseñan las dimensiones y medidas para el modelamiento del cubo espacial para así poder aplicar la minería de datos espaciales, de esta manera se tienen los insumos de información suficientes para llegar a los resultados para la toma de decisiones, que en este caso serán estadísticos y espaciales, dando una visión mucho más amplia de cómo se relacionan estos datos y que decisiones se deberían tomar [1]. El conjunto de pasos anteriores se automatiza en un conjunto de herramientas de software libre que permiten realizar estas tareas de forma clara y ordenada, aunque no existe una única herramienta para el desarrollo de inteligencia de negocios espaciales, la combinación de los sistemas software utilizados en este proyecto permite su aplicación, ofreciendo soporte para la toma de decisiones espaciales [3]. ESTADO ACTUAL DE LA INTELIGENCIA DE NEGOCIOS ESPACIALES La inteligencia de negocios espacial provee una serie de pasos para la toma de decisiones que permite integrar la información de tipo geográfico o espacial, estos pasos según [1] son: --Inteligencia: para formular y encontrar el problema. --Diseño: para analizar una solución. --Elección: para seleccionar la más indicada. Cada paso debe cumplir un manejo de la información preciso para obtener un resultado óptimo y que se acomode con lo que se espera. A. Bodegas de datos espaciales Las organizaciones se han preocupado por atender las diversas situaciones de oferta y demanda de sus productos y servicios basados en los lugares donde se encuentran, ya sea departamentos, municipios, veredas, predios, etc. Además sus bases de datos llamadas también bodegas de datos pueden contener información de clientes, proveedores, años, contactos y otros relacionados con alguna posición geográfica que permite realizar un análisis de tipo espacial ya sea en relación a un polígono, punto o línea [4]. El volumen de información manejado por estas bodegas es elevado, razón por la cual se requiere que los sistemas que las contienen utilicen mayor procesamiento, memoria y aplicación de una serie de consultas multidimensionales que soporten jerarquías predefinidas para acelerar el rendimiento, para lograr esto se utilizan índices llamados SB-Index 9 y HSB- Index 10 que permiten agrupar muchos datos en poco tiempo [5]. Estos rendimientos suponen que se maneje una serie de granularidad espacial para permitir la clasificación de los datos, esta forma de representación toma un enfoque cualitativo para el manejo de la información, representando la misma en forma discreta y/o continua [6]. El objetivo principal de la bodega de datos espacial es el de agrupar todo tipo de información relevante al soporte de decisiones alfanumérica y geográfica con el fin de ser el punto de partida para generar el cubo espacial del cual se desprenderán los resultados [7]. B. Algoritmos y Técnicas de Minería de datos espaciales TABLA I TÉCNICAS DE MINERÍA DE DATOS Minería de datos no espacial Técnica Tipo Arboles de decisión Supervisados Inducción o redes neuronales Regresión lineal Series de tiempo Detección de No supervisados desviaciones o Naive Bayes Reglas de asociación Patrones secuenciales Minería de datos espacial Técnica Algoritmo Generalización Jerarquías Atributos Agrupación Particional Jerárquica Localización K-Means Localización K-Medoids Clarans SD-Clarans NSD-Clarans Asociación espacial A priori Fuente. El autor 9 SB-Índex: Índice de mapa de bits de estructura de datos secuencial 10 HSB-Índex: Índice de mapa de bits de estructura de datos jerárquica 39

41 La minería de datos espaciales permite obtener un resultado profundo y completo de un cuestionamiento dado en un almacén de datos espacial, pero para llegar a obtener este resultado se hace necesario encontrar el mejor método. Existen métodos de minería que permiten realizar esto aplicando algoritmos diseñados para tal fin, clasificados según la tabla 1: Cada uno de estos algoritmos espaciales utiliza procedimientos de manejo de la información geométrica para llegar a los resultados esperados, la tabla de clasificación de técnicas y algoritmos se desarrolló en base a [8]. C. Aplicación SOLAP en proyectos de diversas áreas La aplicabilidad de la inteligencia de negocios espaciales o SOLAP se extiende a diversas áreas del conocimiento permitiendo que se puedan desarrollar proyectos de todo tipo, para mencionar algunos de ellos y su aplicabilidad se muestra la tabla 2. Estudio Aplicación Enlace Diseño de almacenes de datos espaciales para la toma de decisiones en datos geoespacial Mejor manejo de información en instituciones como autoridad y gobiernos [17] Análisis de datos socioespaciales con gráficos interactivos SDSS para ayuda en el sector publico Modelos de simulación demográficos y económicos SDSS para el manejo integrado de la salud y la educación en instalaciones a nivel local Provincia de Buenos Aires en manejo de datos atípicos espaciales en SIG y sistemas de ayuda de Decisión espacial (SADE) Sistema de información SIGGESC para apoyo a SDSS en SIG en Portugal Uso de un modelo de simulación PRIMA con herramientas SOLAP Utilización de SDSS en el manejo de datos históricos para mejor organización de servicios de educación y salud en Brasil Fuente. El autor. ANÁLISIS, DISEÑO Y DESARROLLO DE LA BODEGA DE DATOS ESPACIALES [18] [19] [20] [21] TABLA II CASOS DE ÉXITO SOLAP Estudio Aplicación Enlace SDSS de Clasificación Evaluación de Superficies de [9] de Imágenes Arroz Sistema de apoyo a decisiones espaciales para planificación del uso de la tierra Evaluar impactos de deposición atmosférica de azufre SDSS para gestión de aguas pluviales y evaluación de calidad Análisis de indicadores energéticos agrícolas SDSS Web para ruteo de vehículos utilizando Google Maps Minería de datos espaciales para la agricultura SDSS de gran escala de enrutamiento de vehículos Identificación de unidades de tierra, verificación de ecosistemas, desarrollo de software Exgis y ForAndesT Sistemas acuáticos en la región sur de los Apalaches Uso de la tierra en Estados Unidos, geolocalizar contaminación en una zona urbana Verificación de consumos de energía en actividades agropecuarias con reportes de producción Generación de rutas optimizadas y mapas, fue probado en Coimbra, Portugal Utilización del algoritmo k-means y métodos de optimización de refinamiento progresivo Mejorar la eficiencia y reducir los costos de transporte, aplicado en una compañía China [10] [11] [12] [13] [14] [15] [16] En el desarrollo del proyecto se utilizaron las bases de datos del ICFES Pruebas Saber 11 de los años 2005 a 2012 donde se clasifico información básica de los estudiantes en base condiciones socioeconómicas, instituciones educativas organizadas según carácter, naturaleza, calendario, jornada, idioma y zona, los resultados según pruebas de núcleo común y componente flexible, así como la clasificación de los estudiantes e instituciones a nivel nacional según el año y semestre con su localización geográfica municipal y departamental [22]. La información anteriormente mencionada se descargó en formato CSV 11 proporcionada por el ICFES 12 con los datos clasificados según año y semestres. A. Organización y adaptación de la información El primer paso para poder diseñar la bodega de datos espaciales consistió en la organización de la información recibida utilizando el Sistema Gestor de Bases de Datos POSTGRESQL [23] en su versión 8.4 y su componente espacial POSTGIS [24] en su versión 1.5, teniendo estas herramientas instaladas 11 Valores separados por comas. 12 Instituto colombiano para la evaluación de la educación. 40

42 con su respectiva plantilla espacial se crea la base de datos y tablas necesarias por año y semestre para con el comando Copy de POSTGRESQL realizar la importación de la información en la base de datos, el comando utilizado se muestra en la figura 1. Fig. 1. Carga de datos de CSV a PostgreSQL Después de tener la información cargada en el SGBD 13 se procedió a organizar y seleccionar los datos con el uso de consultas SQL 14 con declaración DDL 15 y DML 16, esta organización se definió según el diccionario de datos versión 1.6 ICFES [25] para relacionar las llaves primarias y llaves foráneas y así obtener el conjunto de tablas, índices y vistas necesarias para realizar el modelamiento completo de la base de datos, en la figura 2 se muestra el compilado de tablas obtenido. Fig. 2. Objetos base de datos db_saber en PostgreSQL 8.4 Al tener la información organizada y completa se procedió a realizar la optimización de datos, revisión de campos erróneos y organización de referencias. B. Extracción, Transformación y Carga Para iniciar el proceso de creación del almacén de datos espaciales se procedió a indagar que factores serian importantes para realizar el análisis espacial y que permitieran obtener elementos para poder realizar la toma de decisiones. A partir de esto se 13 Sistema gestor de bases de datos. 14 Lenguaje de consulta estructurado. 15 Lenguaje de definición de datos. 16 Lenguaje de manipulación de datos. procedió a consultar el documento de Informe histórico prueba saber 11 [22] donde se obtuvieron criterios para el análisis, la tabla 3 muestra estos factores: TABLA III FACTORES DE ANÁLISIS ICFES PRUEBAS SABER 11 Resultados Nacionales Población Evaluada --Total de evaluados por periodo según tipo de inscripción. --Características de la población evaluada: Sexo y Edad menores de 16, menores de 18, entre 17 y 18, entre 18 y <21 y mayores a Número de estudiantes y establecimientos educativos evaluados según zona y sector. --Número de estudiantes y establecimientos educativos de jornada diurna evaluados. --Puntajes promedio en núcleo común y en áreas académicas, según sector y zona. --Niveles de dominio del inglés según sector y zona. --Puntajes en núcleo común y áreas académicas según género. --Niveles de dominio del inglés según género Establecimientos --Por grupos de clasificación educativos socioeconómica, según sector y zona --Por categorías de desempeño en el examen, según sector y zona Resultados Territoriales Población Evaluada --Población total evaluada en A y B-2009 por tipo de inscripción --Número de estudiantes y establecimientos educativos (sedesjornada), evaluados en los últimos Resultados de los estudiantes Resultados de los establecimientos educativos cinco periodos de calendarios A y B --Número de estudiantes evaluados de municipios certificados y no certificados --Municipios certificados y no certificados ---Media en núcleo común y en las áreas en los últimos cinco periodos del calendario A ---Media en núcleo común y en las áreas académicas en los últimos cinco períodos del calendario B ---Desempeño en inglés. Calendarios A-2008 y B Municipios certificados y no certificados ---Por categorías de desempeño en el examen por años ---Por grupos de clasificación socioeconómica (CSE) Fuente. El autor. 41

43 Los factores mencionados anteriormente son los elementos de análisis para la realización del cubo espacial. A partir de esto se procedió a la realización de la bodega de datos espaciales con la herramienta libre GEOKETTLE [26], la cual permite realizar la extracción, transformación y carga de datos, pero con el adicional que permite utilizar datos de tipo espacial, también permite extraer datos de 35 tipos de bases de datos, formato de archivo como XLS, XML, Archivos planos, entre otros. Además permite realizar transformaciones de datos con herramientas como mapeo, selección, filtro, unión, duplicación, análisis espacial, vistas de cartografía y otras, finalmente permite la salida de estos resultados para conformar la bodega de datos. Utilizando la aplicación GEOKETTLE se visualiza el componente espacial obtenido, en este caso se utilizaron los polígonos y puntos de los municipios de Colombia, la visualización de los mismos se observa en la figura 3 con los municipios de Colombia en Polígono y la figura 4 de los sitios en puntos. Fig. 4. Sitios de Colombia - Puntos Fig. 5. Carga en Geokettle de forma específica Fig. 6. Diseño de bodega de datos espacial Fig. 3. Mapa de Colombia - Polígonos El diseño de la bodega de datos espaciales se rige según los factores que se quiere tener respuesta, a partir de ello se modelo la bodega espacial en el sistema GEOKETTLE, para ello se utilizaron herramientas de lectura y extracción de campos como se ve en la figura 5 de forma específica y en la figura 6 de forma general. Después de tener el diseño de la bodega de datos se ejecuta el procesamiento para almacenar en el sistema gestor de bases de datos, el resultado obtenido es el insumo para realizar el cubo de datos espacial, en la figura 7 se muestra el diseño de la bodega de datos espacial en la que se utilizó el modelo estrella para mejorar rendimiento tanto en la consulta SQL y MDX 17 como en el procesamiento de la posterior minería espacial y visualización geográfica. 17 Expresiones Multidimensionales. 42

44 evaluar, en la figura 8 se observa la forma en que se construyó el cubo de datos espaciales y la figura 9 el proceso más detallado. Fig. 7. Bodega de Datos Espacial DISEÑO DEL ESQUEMA E IMPLEMENTACIÓN DEL CUBO DE DATOS ESPACIAL A. Identificación de dimensiones y medidas En la identificación de las dimensiones y medidas se relacionaron los factores de los que se deseó obtener respuesta para crear el cubo de datos espacial y de esta forma obtener el soporte de decisiones. Las dimensiones diseñadas y obtenidas en este ejercicio se diseñaron primero en forma gráfica, para luego utilizar la herramienta SCHEMA WORKBECH [27]. B. Diseño del esquema del cubo espacial Fig. 9. Esquema del cubo más detallado El modelado del cubo espacial de relaciones OLAP (Procesamiento analítico en línea) tomo la tabla municipios para la utilización de los campos geométricos y su conexión con las tablas periodos, estudiantes, instituciones y exámenes para obtener las medidas de temáticas y resultados. Además la aplicación de modelado de esquemas válida la información y forma del cubo para evitar romper restricciones en la bodega de datos y el mal manejo de la información ocasionando datos erróneos. C. Importación y adaptación del esquema del cubo espacial En el momento de guardar el esquema en formato XML 18 se obtiene en detalle la organización del cubo de análisis de información espacial como se ve en la figura 10. Fig. 8. Diseño del cubo de datos espaciales En el diseño del cubo espacial se utilizó la herramienta SCHEMA WORKBENCH la cual permitió desarrollar el esquema espacial adaptando las dimensiones necesarias y las medidas que proporcionarían los resultados de los factores a El archivo XML es el responsable de llamar los datos de la bodega de datos para que se relacionen con las dimensiones y medidas, este esquema requiere un sistema servidor donde pueda realizar las operaciones de consulta de datos utilizando el lenguaje MDX, el cual es la forma de realizar las sentencias de selección y manipulación de los datos y 18 Lenguaje de marcas extensible. 43

45 el procesamiento de la información para su manejo espacial y alfanumérico. Al utilizar el dato espacial en la tabla municipios para obtener geometrías se hace necesario el uso de un algoritmo de datos espacial, este se decidió según el factor a evaluar para el manejo de los resultados, la técnica elegida para aplicar la minería espacial es la de agrupación con los algoritmos k-means y k- Medoids. A. Aplicación de los algoritmos de minería espacial Fig. 10. Esquema XML del cubo de datos espacial Para el procesamiento de información espacial y de la bodega de datos se utilizó la aplicación GEOMONDRIAN [28] para de esta manera obtener reportes de datos en tablas y estadísticos en forma de gráficos, en la figura 11 se puede ver una vista del servidor de análisis espacial en ejecución. El algoritmo a utilizar como se mencionó anteriormente se basó en el factor a evaluar, un ejemplo claro es el número de estudiantes y establecimientos educativos según zona y sector, en este factor se tienen en cuenta la dimensión estudiantes, establecimientos y municipios para lo cual se requeriría un algoritmo de agrupamiento para poder obtener el valor de número de estudiantes, además GEOKNIME permitió la utilización de datos espaciales, en la figura 12 se muestra al software en el proceso de minería de datos espacial en el algoritmo k-means y la figura 13 en el algoritmo k- Medoids. Fig. 12. Aplicación de algoritmo k-means Fig. 11. Ejecución de GEOMONDRIAN De esta manera se obtuvo el cubo espacial en ejecución con los datos proporcionados por el esquema realizado en SCHEMA WORKBENCH. APLICACIÓN DE MINERÍA ESPACIAL Para el cumplimiento del siguiente objetivo en el desarrollo de la inteligencia de negocios espacial se procedió a utilizar la herramienta libre GEOKNIME [29] la cual permite desarrollar los modelos en entorno visual así como aplicar los diversos algoritmos de minería de datos espaciales para obtener la información de soporte a la toma de decisiones. Fig. 13. Aplicación de algoritmo k-medoids Los resultados obtenidos se almacenan en una tabla temporal que tiene los resultados para soportar la toma de decisiones, para cada factor se realizó un procesamiento de minería para el manejo de los resultados. 44

46 IMPLEMENTACIÓN DEL VISOR DE RESULTADOS DE INFORMACIÓN GEOGRÁFICA El proceso de visualización de los resultados toma diversas formas según como se quiera analizar la información, se pueden utilizar gráficos estadísticos como barras, tortas y esquemas lineales, también se permiten ver las tablas de datos con los resultados, sumado a esto se adquiere una nueva forma de representar la información que permite que los datos se reflejen en un mapa visualizando los puntos y sitios (polígonos) de interés de un dato dado, esta información además permite la manipulación interactiva en el mapa. En total el número de dimensiones es de 58 en las que se evalúan todos los aspectos de los factores inicialmente planteados, del mismo modo se obtuvieron 38 medidas que permiten realizar los cálculos de inteligencia de negocios espaciales, algunos de estos cálculos son sumatorias, promedios, desviación estándar y contadores. A. Incorporación y uso del cubo espacial en el visor de análisis de negocio SAIKU Luego de tener los datos en el servidor de análisis espacial GEOMONDRIAN con el respectivo cubo de información con los elementos espaciales, se hace necesario la visualización y manipulación por parte de herramientas software que interpreten las consultas MDX, los datos, el cubo espacial y representar espacialmente, por estas razones se utilizó SAIKU [30], que permite un análisis de la información de forma Drag and Drop arrastrando los componentes que se requieren en un área de trabajo, los resultados de la combinación de dimensiones y medidas son calculadas automáticamente por el software y se muestran los valores, los gráficos y mapas relacionados, la visualización de mapas es posible integrando un componente llamado ChartPlus que nos muestra la información en un mapa con la ayuda de Google Maps. La utilización del cubo espacial se puede ver en la figura 14, en figura 15 las dimensiones y en la figura 16 las medidas. Fig. 15. Dimensiones del cubo Fig. 14. Tabla de información analizada en SAIKU Fig. 16. Medidas del cubo 45

47 Algunos de los resultados mencionados se muestran en gráficos estadísticos en la figura 17. Por otra parte se utilizó también el software Brasileño i3geo [32], que permite también la manipulación de información espacial, a diferencia de CHARTPLUS, i3geo proporciona una mayor cantidad de herramientas pero su rendimiento es mucho más bajo, aunque este rendimiento es debido a la manipulación de datos vectoriales y el uso de gran cantidad de información, i3geo permite la exploración de diversas temáticas según se requiera, en la figura 19 se muestra la caracterización de inscritos al examen ICFES Saber 11 por departamento en Colombia para el año Fig. 17. Gráficos estadísticos También se tiene el valor agregado en que la herramienta soporta plataformas web y móvil lo que permite realizar análisis desde cualquier sitio que tenga internet y acceso al servidor. B. Implementación del visor geográfico SAIKU con CHARTPLUS y aplicación i3geo La visualización espacial toma un nuevo rumbo con el manejo de datos espaciales, para el proyecto se utilizaron dos herramientas que permiten utilizar este tipo de información, una de ellos es CHARTPLUS [31], el cual maneja HTML5 para la carga de información mucho más rápida y con un detalle grafico completo, la adaptación de CHARTPLUS al visor SAIKU fue un punto clave en la visualización de la información de negocio ya que al poder manipularse y verse en un mapa se hace más clara la toma de decisiones, en la figura 18 se puede apreciar el mapa de Colombia con información tomada de SAIKU. Fig. 19. Uso de i3geo La implementación de estos visores tuvo que adecuarse a los lineamientos del servidor de análisis espacial GEOMONDRIAN. C. Implementación del visor geográfico SOLAP LAYERS 2.0 Existe otro desarrollo libre llamado SOLAP LAYERS [33] que permite la visualización de información espacial y que agrega un componente de consultas MDX para realizar la operación, este sistema software no es adecuado ya que no es rápido y consume bastante memoria, en la figura 20 se puede apreciar la interfaz gráfica de la herramienta y el modo de operar. Fig. 18. Carga de mapa con CHARTPLUS El software libre CHARTPLUS permite la adaptación de una gran cantidad de plugins que facilita aún más el manejo de la información. Fig. 20. Interfaz SOLAPLAYERS 46

48 CONCLUSIONES El proyecto realizado logró la implementación de una inteligencia de negocios espaciales completa, desarrollando cada una de las fases comprendidas. La utilización del software libre permitió que los datos fueran tratados y manejados según los factores de decisión que se establecieron, en resumen cada fase se completó con la utilización de una herramienta software para tal fin, en la figura 21 se puede apreciar un esquema grafico de las herramientas utilizadas y del paso de cada una para completar el análisis espacial. posibilita obtener resultados más completos y visibles para la toma de decisiones para presente y futuro. En orden de uso según las tareas involucradas, las herramientas utilizadas para la aplicación de inteligencia de negocios espaciales en las bases de datos del ICFES pruebas Saber 11 fueron: TABLA IV SOFTWARE LIBRE UTILIZADO Tarea Software Base de datos OLTP Espacial Postgres Postgis Almacén de datos espacial GeoKettle Esquema cubo de datos Schema Workbench espacial Servidor de análisis espacial GeoMondrian Minería de datos espacial GeoKnime Visores gráficos de mapas I3Geo, ChartPlus, Solap Layers Visor de resultados espacial SAIKU Fuente. El autor. Actualmente no existe un software que unifique estos pasos y tengan un análisis espacial de forma directa, razón por la cual este es un camino viable y completo para la realización de inteligencia de negocios espaciales, además con este conjunto de pasos desarrollados se logra obtener respuesta para los factores de evaluación del soporte para la toma de decisiones en las bases de datos del ICFES pruebas SABER 11. Fig. 21. Software Spatial BI [34] Al día de hoy se han desarrollado una cantidad limitada de proyectos relacionados con la Inteligencia de Negocios Espaciales, esto por ser una tecnología un tanto nueva ya que involucra nuevos tipos de datos y un alto manejo de procesamiento y memoria, por esta razón el almacenamiento espacial ha evolucionado incorporando nuevas formas de obtener el tipo de dato espacial y mejorando la distribución de las tablas e índices para la recuperación de los mismos, a su vez los modelos y consultas espaciales incrementan el rendimiento e integridad en la recuperación de la información teniendo en cuenta que el procesamiento de estas consultas exige más y mejores procedimientos. En concordancia, el surgimiento de nuevos algoritmos para extraer la información espacial hace que la minería de datos espacial adquiera nuevas técnicas de transformación de los datos para que cumplan con los requerimientos exigidos. Como se ha denotado la aplicabilidad de la Inteligencia de Negocios Espaciales se relaciona en un número amplio de temáticas, permitiendo que la misma se involucre con áreas del conocimiento que REFERENCIAS [1] Sugumaran, R. and J. Degroote, "Spatial Decision Support Systems - Principles and Practices", in CRC Press, ed. New York (USA):2011, pp. 507 [2] Flacke, J., (2012, nov). "Spatial Decision Support Systems Introduction to Concepts and Requirements". Web-GIS and Spatial Data Infrastructure. pp. 30. [3] Lamas, A., et al., (2013, jul). "Creación de un módulo espacial OLAP para Saiku". VIII Jornadas de SIG Libre de Girona. pp. 9. [4] Viswanathan, G. and M. Schneider, (2012, jun). "Usercentric spatial data warehousing: a survey of requirements and approaches". International Journal of Data Mining, Modelling and Management. [5] Siqueira, T.L., et al., (2012, jun). "The SB-index and the HSB-index: efficient indices for spatial data warehouses". Geoinformatica. (ACM), pp [6] Bimonte, S. and M.-A. Kang, (2010, sep). "Towards a Model for the Multidimensional Analysis of Field Data ". Proceedings of the 14th east European conference on Advances in databases and information systems. (ACM), pp [7] Vaisman, A. and E. Zimányi, (2009, nov). "A multidimensional model representing continuous fields in spatial data warehouses". Proceedings of the 17th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems. (ACM), pp [8] Reyes, M.X.D., (2009, jan). "Minería de datos espaciales en búsqueda de la verdadera información". Pontificia Universidad Javeriana. (Scielo), pp. 20. [9] Wan, S., T.C. Lei, and T.Y. Chou, (2010, apr). "An enhanced supervised spatial decision support system of 47

49 image classification: consideration on the ancillary information of paddy rice area". International Journal of Geographical Information Science. (Taylor Francis), pp [10] Meyer, A.D., et al., (2013, nov). "A conceptual framework and its software implementation to generate spatial decision support systems for land use planning". Land Use Policy. (Science Direct), pp [11] Reynolds, K.M., et al., (2012, jan). "Spatial Decision Support for Assessing Impacts of Atmospheric Sulfur Deposition on Aquatic Ecosystems in the Southern Appalachian Region". Hawaii International Conference on (IEEE Xplorer), pp [12] Kaunda-Bukenya, N., et al., (2012, apr). "Spatial Decision Support System (SDSS) for Stormwater Management and Water Quality Assessment ". Water Quality Monitoring and Assessment. (Intech), pp. 22. [13] Bimonte, S., et al., (2012, jun). "Definition and analysis of new agricultural farm energetic indicators using spatial OLAP". Computational Science and Its Applications. (Springer), pp [14] Santos, L., J. Coutinho-Rodrigues, and C.H. Antunes, (2011, apr). "A web spatial decision support system for vehicle routing using Google Maps". Decision Support Systems. (Science Direct), pp [15] D.Rajesh, (2011, feb). "Application of Spatial Data Mining for Agriculture". International Journal of Computer Applications ( ). International Journal of Computer Applications (Springer), pp. 3. [16] Yu, X. and K. Liu, (2009, apr). "A Spatial Decision Support System for Large Scale Vehicle Routing". Measuring Technology and Mechatronics Automation International Conference on (IEEE Xplorer), pp [17] Kyung, M.-J., J.-H. Yom, and S.-Y. Kim, (2012, sep). "Spatial data warehouse design and spatial OLAP implementation for decision making of geospatial data update". KSCE Journal of Civil Engineering. (Springer), pp [18] Humacata, L.M., (2010, jan). "Análisis exploratorio de datos socio-espaciales mediante gráficos interactivos". Revista digital del Grupo de Estudios sobre Geografía y Análisis Espacial con Sistemas de Información Geográfica (gesig), pp [19] Oliveira, T.H.M.d., M. Painho, and R. Henriques, (2012, nov). "A spatial decision support system for the Portuguese public transportation sector". Proceedings of the Third ACM SIGSPATIAL International Workshop on GeoStreaming. (ACM), pp [20] Mahboubi, H., S. Bimonte, and G. Deffuant, (2011, jun). "Analyzing demographic and economic simulation model results: a semi-automatic spatial OLAP approach". Computational Science and Its Applications. (Springer), pp [21] LIMA, R.d.S., A.N.R.d. Silva, and J.F.G. Mendes, (2003, may). "A SDSS For integrated management of health and education facilities at the local level: Challenges and opportunities in a developing country". International Conference on Computers in Urban Planning and Urban Management. (sdum), pp. 15. [22] ICFES. (2013). "Informe de resultados históricos Saber 11". [online]. Available from: [23] Postgresql. (2013). "Postgresql". [online]. Available from: [24] Postgis. (2013). "Postgis". [online]. Available from: [25] ICFES. (2014). "Repositorio FTP ICFES". [online]. Available from: ftp://ftp.icfes.gov.co. [26] Spatialytics.org. (2008). "Geokettle". [online]. Available from: [27] Mondrian. (2013). "Schema Workbench". [online]. Available from: orkbench/. [28] Spatialytics.org. (2013). "Geomondrian". [online]. Available from: [29] AG. (2013). "Geoknime". [online]. Available from: [30] BI, M., (2013). "Saiku". [online]. Available from: [31] it4biz. (2014). "Saiku ChartPlus". [online]. Available from: it4biz.github.io/saikuchartplus/. [32] Software, B.P., (2013). "i3geo". [online]. Available from: [33] tbadard. (2010). "Solaplayers". [online]. Available from: [34] Badard, T., (2010). "Open source Geospatial Business Intelligence in action with GeoMondrian and SOLAPLayers!". [online]. Available from: CHRISTIAM ALEJANDRO NIÑO PEÑA - AUTOR Ingeniero de Sistemas, Especialista en Gerencia de Sistemas Informáticos, Especialista en Bases de Datos, Candidato a Magister en Tecnología Informática de la Universidad Pedagógica y Tecnológica de Colombia. Ingeniero de Sistemas DBA en la Gobernación de Boyacá. Áreas de Trabajo: Bases de Datos, Ingeniería del Software, Sistemas de Información Geográfica, Bases de datos espaciales, Inteligencia de Negocios Espaciales, Programación Web. GUSTAVO CACERES CASTELLANOS DIRECTOR. Magister en Ciencias de la Información y las Comunicaciones, Especialista en Diseño de Sistemas de Auditoría, Cursos de Doctorado en Informática e Inteligencia Artificial, Ingeniero de Sistemas. Docente Tiempo Completo de la Universidad Pedagógica y Tecnológica de Colombia. Áreas de Trabajo: Bases de Datos, Lenguajes Formales, Matemáticas Discretas, Sistemas de Información Geográfica, Bases de datos espaciales, Inteligencia de Negocios 48

50 Factores claves para la educación: las actitudes, intereses y habilidades de un estudiante, conseguidas a través de las TIC. Medina Velandia Lucy Nohemy, Fundación Universitaria San José, Parra Rincón Patricia Gómez, Universidad Sergio Arboleda, Luna Camilo Andrés, Universidad Sergio Arboleda Abstract The main objective of this work was to develop a software tool through measurement items could identify skills, interests and abilities of a human being. The approach used was applied, because through a software allows the discovery of human talent in order to reflect on their abilities, aptitudes and interests thus opt for the most appropriate decision, so that personal fulfillment may take in the optimism, security, confidence, enthusiasm and creativity. It followed a progressive methodology applied type, it includes practical knowledge to be applied considering the academic community. It included the development of more than 15 questionnaires and then the respective analyzes and reflections by the research team comprised of psychologists, teachers and pedagogues methodologists, it was concluded that one stop sheltering the main ideas and to pick up what the group researchers considered important. We also analyzed test about 20 different authors, all of great extent and some very complex to answer. Furthermore, instruments were analyzed to assess the interests of human beings special purpose and general interests, but for the most part engaged in vocational interests. This study only focused on the general category of intellectual skills, in this category, it follows a series of specific skills and abilities, however, the tool evaluates only some as logical reasoning, analytical and numerical reasoning. As a human being has different types of interests, such as rejections, medium and high, the investigation was limited and the project focused on high interests of the individual, specifically the level of student interest in the subject Computer algorithms. Index Terms Attitudes, skills, interests INTRODUCCIÓN Partiendo de la frase conócete a ti mismo, atribuida a Heráclito o Tales de Mileto, Pitágoras o Sócrates, quienes tuvieron discusiones sobre el autoconocimiento del ser humano, una de las características más importantes para que una persona pueda verse como lo que es y sería ideal para que todos los humanos la cumplieran; pues de esta manera, se podría conocer al otro, una vez conocido el propio ser. Parte de ese conocimiento son las habilidades, destrezas y aptitudes que todos los hombres poseen y que son de vital importancia para el logro de sus objetivos de vida. Las habilidades indican al humano saber cómo hacer algo, es la astucia nata que tiene para realizar una actividad, pero que aunque se posean, en algunas ocasiones no se conocen; de otra parte, la destreza requiere práctica constante, se adquiere a través de las manos o con cualquier parte del cuerpo, de esta forma, se puede demostrar para qué se es hábil; de otra parte, la aptitud es la facilidad que un humano posee para hacer las cosas; es la autonomía que demuestra en una acción, es la ocurrencia en el momento justo, es la intuición que tiene por algo, es la confianza al realizar alguna actividad, es la imaginación sin frontera que logra al ejecutar tareas. Según [1] quien afirma que todos los seres humanos poseen aptitudes y habilidades diferentes y saben con seguridad para qué se es bueno o qué cosas son las que se hacen mejor, pero para hacer este descubrimiento se requiere un proceso de autoconocimiento previo, que permita identificar de manera clara, cuáles son aquellas habilidades innatas, es decir, aquellas que son más inherentes al ser, que se trae desde que se nace, y que empiezan a destacarse desde etapas tempranas, y cuáles son aquellas que se han ido desarrollando a medida que se va creciendo y en la medida que se lo propone. Como se aprecia, para Maturana, la aptitud es una competencia que cualquier persona tiene frente a una meta por conseguir para realizarla de forma satisfactoria. 49

51 [2] Hace referencia a que se requiere plantear diferencias entre la aptitud desde el punto de vista psicológico y el punto de vista común; es así que En el habla común, la aptitud hace referencia a la capacidad de una persona para realizar una tarea en forma correcta. En psicología, en cambio, el término abarca tanto las capacidades cognitivas como las características emocionales y de la personalidad. De esta forma, la aptitud está vinculada con la inteligencia y con las habilidades innatas y adquiridas tras un proceso de aprendizaje. De otra parte, autores como [3] se refiere a que el interés que muestra una persona por algo, es aquella tendencia o predilección que demuestra por una actividad o cualquier cosa en especial; es decir, con ansias de conocimiento y saber. Las emociones juegan un papel importante, por cuanto, ellas permiten que se busquen alternativas y medios para conseguir lo que se quiere, por cuanto es de su interés lograrlo. Luego de conocer a fondo lo que otros autores afirman sobre intereses, habilidades y aptitudes, se plantea la pregunta Se pueden identificar las habilidades, aptitudes e intereses de un humano por medio de un software? Se propusieron diferentes alternativas, algunas de las cuales se refieren en primer lugar, al trabajo con un grupo de profesionales que cubre, psicólogos, metodólogos, profesores y estudiantes; al establecimiento de por lo menos quince versiones de test que se fueron refinando hasta conseguir el óptimo; a la revisión de por lo menos veinticinco test que diferentes autores han elaborado para poder tener una base y conocimiento de lo que se había hecho, para tomar algunas decisiones sobre el cuestionario final. Es importante que los seres humanos se conozcan lo más ampliamente posible para poder tomar un mejor control de su vida y lograr sus objetivos de una manera más equilibrada y con un mejor razonamiento; de esta manera, si un humano conoce a qué se enfrenta en la vida y cómo puede sacar provecho debido a sus habilidades, intereses y sobre todo a ese interés que puede tener en el cometido, logrará mejorar y triunfar en lo que se propone. METODOLOGÍA En el desarrollo del presente trabajo se realizaron dos tipos de investigación, de una parte, la investigación básica, debido a que se parte de teorías y métodos ya existen para evaluar a los individuos; a la vez se estimaron otros instrumentos que sirvieron como guía para el desarrollo del test final; de otra parte, se aplicó la investigación aplicada, pues a partir de ella se solidificó y consolidó el software desarrollado, que junto a la investigación de más de 20 meses se hizo para lograr tener 80 preguntas y un software que permite evaluar a quien está interesado. Descripción de la metodología Fase 1. Fase exploratoria. Se consultó y seleccionaron cuidadosamente autores, bibliografía, materiales diversos, test, cuestionarios útiles como soporte de investigación. Se revisaron, identificaron, clasificaron y seleccionaron los distintos instrumentos para ser tenidos en cuenta sobre cómo enfocaron los diferentes autores su trabajo. Se acudió a expertos para hacer de este trabajo útil y con bases profesionales. Fase 2. Fase de construcción de la propuesta. Con base en los resultados de la fase anterior se establecieron los lineamientos, pautas o criterios que sirvieron como soporte para construir el instrumento para evaluar las habilidades, intereses y aptitudes, que se convirtió en el resultado de este trabajo. Se desarrolló el software y se hicieron las pruebas preliminares pertinentes. Fase 3. Fase de encuestas y análisis. Se realizaron pruebas de validación del instrumento a través del software a un número determinado de personas, inicialmente a algunos estudiantes de primer semestre y otros de semestres superiores. Se hicieron análisis y consideraciones pertinentes de acuerdo al número de personas y resultados para proceder a los ajustes necesarios. Fase 4. Fase de documentación. Se preparó un documento general con la descripción del trabajo, la especificación del test y el aporte que desde la línea de Investigación Desarrollo Tecnológico se da a profesores y estudiantes, sin importar así éstos son de universidad, colegio o particulares. Fase 5. Fase de difusión. Este trabajo es un resultado de investigación y se ha presentado a nivel interno dentro de la universidad, se espera poner en producción durante todo el siguiente semestre y darle la visibilidad que un trabajo de muchos meses de trabajo se ha culminado con éxito. 50

52 DESARROLLO DEL TRABAJO Para cumplir con el objetivo propuesto, al inicio del trabajo se hicieron revisiones a por lo menos veinticinco (25) instrumentos que de alguna manera conseguían a partir de preguntas sobre las habilidades, intereses y/o aptitudes de un ser humano pero orientadas a la parte vocacional, es decir, para mirar cuáles características cumple un humano para estudiar una u otra carrera. Para cubrir el cometido, se realizaron más de quince (15) versiones del test que al final quedó uno que consta de ochenta (80) preguntas que abarcan tres pruebas a saber: Prueba HA o prueba de habilidades, la IN o prueba de intereses y PR o prueba de programación y pseudocódigo (Véase figuras 1, 2). Este test se consiguió con la colaboración de profesores, estudiantes, un psicólogo, un pedagogo y un metodólogo. Debido a que son numerosas las diferentes clasificaciones que sobre habilidades se han hecho, el trabajo se centró en la categoría general de habilidades intelectuales, como es el caso del razonamiento lógico, la capacidad analítica y el razonamiento numérico. En cuanto a los intereses que se han clasificado en altos, medios y rechazos, en el proyecto se trabajaron los intereses altos del ser humano, centrando la atención en la asignatura Algoritmos computacionales. Las preguntas anteriores fueron refinadas y puestas a punto en el documento, el cual fue involucrado dentro de un software para facilitar el manejo de los usuarios. (véase Figura1). Figura 1. Prueba HA, habilidades. Fuente: [4] Con el principio de preguntas y respuestas se realizó la evaluación de las características aquí evaluadas. Se estableció que el cuestionario no debería ser demasiado extenso, porque podría ocasionar una mala aceptación de la prueba o que el usuario lo contestara rápido y sin tener conciencia. Por esta razón, se determinó que por cada una de las características se podrían realizar cinco preguntas, de las cuales, se determinaría una escala de calificación, inicialmente de la siguiente manera: Cinco respuestas correctas: Habilidad totalmente desarrollada. Cuatro respuestas correctas: Habilidad desarrollada. Tres respuestas correctas: Habilidad parcialmente desarrollada. Dos respuestas correctas: Habilidad levemente desarrollada. Una respuesta correcta: Habilidad por desarrollar. Ninguna respuesta correcta: Habilidad por desarrollar. Figura 2. Prueba PR, o de programación y pseudocódigo. Fuente. [4] Cada uno de los intentos que tuvieron los estudiantes para contestar las pruebas de habilidades HA, intereses IN o de programación y pseudocódigo PR, tuvieron una etapa de pruebas, utilizadas en Ingeniería de software y éstas se 51

53 ejecutaron por más de un mes. Las pruebas utilizadas fueron las de caja blanca, de caja negra, de sistema, de estrés, de interfaz y de integración. Previa a esta etapa se elaboró un documento que planeaba las pruebas con exactitud, para no perder de vista ningún detalle que pudiera servir para la puesta a punto del software. DISCUSIÓN Y ANÁLISIS DEL TRABAJO Una vez construido el test final se procedió a involucrarlo dentro del software y a realizar algunos ensayos preliminares correspondientes a las pruebas de HA habilidades, IN intereses y PR programación; pues en ese momento se inicia la valoración del software durante mínimo un semestre en todas las carreras de la Universidad, para determinar criterios e iniciar con la evaluación final del producto en el cual se esperan establecer una serie de parámetros que llevarán a fijar algunas estrategias pedagógicas. Los resultados preliminares se muestran en la siguiente figura: Figura 4. Número total de evaluados de forma preliminar. En la Figura 4 se puede observar que los evaluados preliminarmente, hicieron las pruebas repartidas en tres grupos, los de primer semestre con un 36%, segundo con un 18% y semestres superiores con un 46%. 42% 36% 18% 46% 25% 33% Figura 5. Evaluados por tipo de prueba Otros semestres Segundo semestre Primer semestre Pruebas de programación Preubas de Intereses Pruebas de habilidades En la encuesta preliminar (véase Figura 4), el total de encuestados fue de cincuenta y cinco (55) personas, comprendidas entre 18 y 22 años. Los usuarios completaron tres tipos de pruebas, una, de Habilidades y aptitudes, con la cual se quería establecer cuál era la desenvoltura del estudiante y la capacidad para afrontar determinadas situaciones. Otra de Intereses, encargada de medir y evaluar las atracciones o encantos de la persona y la prueba Programación, que son pruebas de ejercicios básicos de programación, con los cuales se quiere medir la habilidad del estudiante. En la figura 5, se observa que el 42% de los encuestados realizaron pruebas de habilidades y aptitudes, 33% realizaron pruebas de intereses y el 25% desarrollaron pruebas de programación. Cabe resaltar que de los anteriores resultados un buen porcentaje de los encuestados es hábil para la matemática, la lógica, y destrezas marcadas para la creatividad, por cuanto demostraron ser descubridores, innovadores, e inventores. Se notó además que tienen capacidad de pensamiento convergente debido a que integran elementos y datos, establecen prioridades que les conducirán a tomar decisiones adecuadas. En cuanto al pensamiento divergente, los encuestados mostraron que son aptos para proponer soluciones diferentes, que descubren más de una respuesta para una pregunta determinada. Es de notar que la capacidad que más sobresalió entre los encuestados fue la capacidad para analizar, para descomponer el todo en sus partes y ver las relaciones entre ellas, poder analizar cada una de sus variables, relacionar causas y efectos, esto es comprensible, por cuanto son estudiantes de ingeniería. Se evaluó la capacidad de trabajo en grupo, en donde admirablemente parecen ser productivos. No se evidenció gran tendencia por la interdisciplinariedad, gran parte de ellos no les gusta compartir con otras disciplinas, aunque el mundo clama por ello; se deberá trabajar más por procurar cooperación entre disciplinas, pues hoy no se concibe una persona trabajando absolutamente sola o con personas solamente de su mismo perfil. El trabajo interdisciplinario fue evaluado dando como resultado que a las personas les gusta comunicarse con otras, pero no trabajar con otras disciplinas como ya se mencionó. 52

54 El primer ensayo se ha dirigido en principio a estudiantes de ingeniería y se aplicaron las pruebas de habilidades y aptitudes, dando como resultado una fuerte inclinación por la matemática, la lógica matemática, al trabajo organizado y orientarse a la tecnología nueva, así como investigar con material técnico; al análisis y solución de problemas. La mayoría de los encuestados gustan del trabajo técnico e informático, al análisis de problemas y de datos. Les gusta aplicar conocimientos técnicos y estar muy atentos para poder comprender la realidad. Sueñan con la utilización de aparatos e instrumentos técnicos, como es el computador; lo consideran su herramienta diaria para surtir sus necesidades de aprendizaje. Están acostumbrados a trabajar bajo presión y con mucho estrés, pero paradójicamente se concentran muy bien. Las anteriores fueron algunas de las conclusiones que se dedujeron al adelantar la muestra en la que como se indicó solo participaron cincuenta y cinco personas y luego con más de cien. Se espera que a finales del próximo semestre se haya concluido el trabajo poniendo a evaluar los test durante todo el semestre y con la participación de todos los estudiantes de la universidad. CONCLUSIONES Todos los seres humanos sin distintos, tienen unas habilidades más desarrolladas que otras. Los estudiantes de ingeniería se inclinan por la técnica, habilidades como el trabajo bajo presión y estrés. El resultado preliminar no es muy extenso y profundo debido a que las pruebas se realizaron a cincuenta y cinco personas que estudian ingeniería; la idea es trabajar con estudiantes de las diferentes carreras en donde se puedan evaluar realmente las habilidades, aptitudes e intereses. profesores, es un buen elemento para iniciar el camino al diseño de estrategias didácticas para obtener un mejor método de enseñanza-aprendizaje. Referencias D. Maturana. (2012, agosto). Desarrollo de competencias. [Online]. Disponible en desarrollo-de-competencias/ T. Alcivar. (2011). La conducta, la aptitude y la actitud. [Online]. Disponible en Aptitud J. Carlos. (2010). Las aptitudes, capacidades e intereses.[online]. Disponible en R. P. Parra, L.C.Gómez. (2012). Software para identificar aptitudes, intereses y habilidades de un individuo. Proyecto de grado. Universidad Sergio Arboleda. Bogotá, Colombia. Rosenrot. (2010). Eres tan listo como crees? [Online]. Disponible en A. Zeballos. (2012). Razonamiento lógico matemático, capacidad analítica.[online]. Disponible en Primer autor. Lucy Medina Velandia. Ingeniera de sistemas, Magister en Ingeniería de sistemas, Especialista en pedagogía, Doctorando en Ingeniería Informática. Profesora Segundo autor. Patricia Parra Rincón. Ingeniera de sistemas, Universidad Sergio Arboleda. Tercer autor. Camilo Andrés Gómez Luna. Ingeniero de sistemas, Universidad Sergio Arboleda. Hasta el momento el test construido deja un saldo a favor, resaltando muchas características que tienen los estudiantes, pero invitando a que se refuercen algunas actitudes de los humanos, como es el trabajo interdisciplinario. El software que emplea o incluye el instrumento construido con un equipo de trabajo interdisciplinario como fueron, un psicólogo, metodólogo, pedagogo y 53

55 Propuesta De Una Estrategia De Medición Para La Caracterización De Parámetros S, En Dispositivos Rf y Microondas En Banda 300khz Hasta 8 GHz First A. MSc(c) Nydia Esperanza Cely Angarita, Second B. MSc(c) Javier Francisco Rodríguez Abstract. The main objective of this paper is a teaching strategy for characterizing small-signal Rf and microwave devices through a vector network analyzer (VNA). The proposal is based on the observation of the behavior of linear electrical networks by waves incident and reflected voltages yielding the VNA, which will be captured in a software to make graphs corresponding to a frequency sweep with a constant power, thus reducing the time it takes to develop manually, this method is intended for electronic labs where measures are taken to passive devices.. Index Terms Characterization, frequency, measurement, microwave, Rf, parameters S, vector network analyzer. Resumen. El objetivo principal de este trabajo es una estrategia de enseñanza para la caracterización de dispositivos de RF y microondas pequeña señal a través de un analizador vectorial de redes (VNA). La propuesta se basa en la observación del comportamiento de las redes eléctricas lineales por las ondas incidentes y reflejadas tensiones que producen la VNA, que se va a capturar en un software para hacer gráficos correspondientes a un barrido de frecuencia con una potencia constante, reduciendo así el tiempo que tarda para desarrollar de forma manual, este método está destinado a laboratorios de electrónica donde se toman medidas para dispositivos pasivos. Palabras Clave -Caracterización, la frecuencia, la medición, microondas, Rf, parámetros S, analizador de redes vectorial. INTRODUCCION Los parámetros de dispersión S se utilizan para describir el comportamiento eléctrico de redes lineales cuando se someten a varias estímulos de régimen permanente por pequeñas señales, permiten la caracterización de elementos en alta frecuencia mediante el censado y medición de ondas de tensión incidentes y reflejadas, estos parámetros son usados principalmente para redes que operan en Rf y microondas.[1] El objetivo principal de es presentar una investigación de la caracterización y análisis de mediciones de los parámetros S en dispositivos Rf y microondas a través de un Analizador vectorial de redes (VNA). Un VNA es un instrumento capaz de medir los parámetros S de un dispositivo pasivo. Su funcionamiento se basa en la emisión de una onda incidente a través de uno de sus puertos y el cálculo de la onda reflejada al mismo puerto y las ondas transmitidas a los demás puertos para registrar las medidas de transmisión, en el dispositivo bajo prueba DUT. [2] El funcionamiento se basa en la emisión de una señal de banda ancha a través de uno de sus puertos y el análisis en el mismo puerto de la señal reflejada para medidas de reflexión; o el análisis en su otro puerto de la señal transmitida para medidas de transmisión, en el dispositivo bajo prueba DUT. Este instrumento (VNA) para un óptimo funcionamiento debe ser calibrado previamente a su utilización para cada medición, permitiendo corregir los errores sistemáticos, por esto es necesario aplicar el proceso de corrección de los parámetros de dispersión medidos y finalmente obtener los parámetros S 54

56 corregidos los cuales representan los parámetros de caracterización del dispositivo DUT, para almacenarlos en un banco de mediciones y reducir los tiempos en la toma y análisis.[3] DESARROLLO DEL TEMA Parámetros de dispersión Los parámetros de dispersión o parámetros S son los coeficientes de reflexión y transmisión entre la onda incidente y la reflejada. Estos parámetros describen el comportamiento de un dispositivo bajo redes eléctricas lineales en determinado rango de frecuencia. Los parámetros son caracterizados por ganancia, magnitud o pérdidas en decibeles y fase. Los parámetros S son utilizados en sistema de radio frecuencia y microondas. Los parámetros de dispersión se modifican con la frecuencia a la que se calcula, razón por la cual se debe especificar en la medición la frecuencia, la impedancia característica y la impedancia del sistema. En general los parámetros S involucran las corrientes y tensiones que se desplazan en una línea de transmisión las cuales se ven alteradas por la discontinuidad debido a la incorporación de una red en una línea de transmisión. Es decir la onda se encuentra con una impedancia diferente de la impedancia característica de la línea. A continuación se describen los parámetros: S11: Relación directa sobre la impedancia de entrada. S21: Es la relación directa con la ganancia del dispositivo S22: En relación directa con la impedancia de salida. S12: En relación directa con la ganancia en sentido inverso (idealmente seria cero). [4] Se considera una red de microondas conectada al exterior mediante N accesos o líneas de transmisión. Debe definirse un plano de referencia en el que se consideran las ondas de tensión normalizadas en a1 (dirección entrante al circuito) y b1 (en dirección saliente al circuito) así, la matriz de dispersión del circuito de microondas permitirá relacionar las citadas ondas de tensión normalizadas incidentes y reflejadas. En términos matemáticos: ( ) ( ) ( ) (1) Se observa que b y a representan los vectores columna de dimensiones Nx1 cuyas componentes son, respectivamente, ondas salientes b1 y entrantes a1 del circuito bajo estudio, mientras que S designa a la matriz de parámetros de dispersión de dicho circuito, que será de tamaño N x N. Si nos fijamos en la fila j-ésima: (2) De donde: ( ) (3) Fig. 1. Muestra la matriz S. facilita la obtención al realizar mediciones Se concluye que para obtener el parámetro de dispersión S12 es necesario que todos los accesos de 55

57 la red se carguen con las impedancias respectivas características de la excepción del i-enésima en el que se conectará un generador capaz de producir la onda incidente a1 Cuando un acceso de una red está cargada se dice que está terminada. Aunque los parámetros de dispersión se calculan bajo determinadas condiciones de carga una vez obtenidos permiten representar el comportamiento del circuito de microondas independientemente de las cargas que se conecten en los extremos de sus accesos.[1] FUNDAMENTOS TEORICOS Calibración de un Analizador vectorial de redes El proceso de calibración del VNA consiste en la medición de patrones de impedancia y en la aplicación de algoritmos de correcciones internas del VNA. Debido a que el proceso de calibración puede requerir mucho tiempo y ser difícil, para conseguir una alta precisión, se debe dedicar una cantidad considerable de tiempo y cuidados a la conexión de diversos patrones de impedancia. Las especificaciones del comportamiento de los VNA se facilitan con una indicación del nivel de precisión que es posible alcanzar cuando se aplican kits y métodos de calibraciones específicos [5]. Arquitectura general del analizador vectorial de red El VNA cuenta con un generador de señales de RF que se utiliza como estímulo para el dispositivo bajo prueba DUT, contiene múltiples receptores de medida que censan las señales incidentes, reflejadas y transmitidas en sentido directo e inverso de la señal. Incorpora dos puertos de prueba, ya que por lo general un DUT tiene entre uno y dos puertos. La figura 2 representa un diagrama simplificado del funcionamiento de un VNA[6]. Fig. 2. Diagrama en bloque generalizado del VNA. Representación de las medidas El analizador vectorial de redes muestra la información en formatos diferentes de visualización y diagramas como son los siguientes: Carta de Smith Es un diagrama que traza el mapa de los coeficientes de reflexiones complejos como valores de resistencias y reactancias normalizadas. Diagrama cartesiano Son gráficas rectangulares que muestran una magnitud escalar en función de una variable estimulo, como la frecuencia y la potencia. Diagrama polar Presenta los datos medidos en el plano complejo con un eje horizontal el cual es real y un eje vertical imaginario. Trabajos realizados Los parámetros de dispersión S (Scattering) permiten la caracterización de elementos expuesto a altas frecuencias mediante medición de ondas de tensiones incidentes y reflejadas. Describiendo el comportamiento eléctrico de redes lineales cuando se exponen permanentemente por pequeñas señales. Los parámetros S son usados para redes eléctricas que operan en Rf y microondas. Estos parámetros se obtienen a través de un analizador vectorial de redes (VNA), el cual instrumento más utilizado para 56

58 medir dispositivos radio frecuencia, analizando las propiedades asociadas con la reflexión y transmisión de señales eléctricas a pequeña señal. Bianco, [2] implemento un módulo de medición de parámetros S, para las bandas de telefonía móvil celular desde 0,8 a 2 GHz. El cual cumple con las características propias de un VNA, este módulo junto con el Generador constituye un instrumento independiente para su uso en mediciones de laboratorio, líneas de producción y calibración en la industria electrónica. Igualmente[7]. Ishida presentan una técnica novedosa de medición WPT, describiendo la potencia trasmitida y la eficiencia 0-ohm, calculado por parámetros S a través de un VNA [8][9][10], A Ferrero, muestra la perplejidad de la medición de los parámetros S en radio frecuencias. Usualmente se hacen estudios detalladamente de uno y dos puertos de sistema de medición pero este se centra en la investigación de parámetros S multipuerto en analizadores de redes vectoriales. Haciendo comparaciones entre laboratorios y las grandes instrumentos de prueba de escala, tales multipuerto probadores de cable [11] M. Je, J. Han, presentan una metodología de extracción y caracterización que determina a partir de mediciones de parámetros S, el factor de ganancia, y movilidad de los factores de degradación, teniendo en cuenta los efectos que ocurren en el sustrato MOSFETs, el cual no sólo se utiliza para aplicaciones de pequeña señal y bajo ruido, sino que se utiliza cada día más en aplicaciones de gran señal tales como amplificadores de potencia de microondas, osciladores, mezcladores, multiplicadores y circuitos pulsados. Los mezcladores a FET obtienen conversión de ganancia en lugar de pérdidas, lo que implica una menor necesidad de etapas bajo ruido de amplificadoras. Particularmente es útil en la aplicación a gran señal de mezcladores de ancha banda en microondas es el Dual-Gate HESFET. La utilización del transistor FET en potencia, como mezclador, posee nueva tecnología monolítica, lo cual hace que cada día sea más necesario tener un conocimiento exhaustivo de su comportamiento. Se hicieron las medidas en los transistores de diferentes longitudes, siendo los más cortos 80 nm, en la banda de 10 a Alcance de 40 GHz de frecuencia.[12] al igual G. Álvarez-Botero, el extrae en los parámetros S con el modelo en el transistor de efecto de campo metal-óxidosemiconductor (MOSFET). [13][14] Vanaverbeke, describe un sistema automatizado de carga de mediciones de un banco de pruebas para la caracterización de GaN HEMTs Transistor de alta movilidad de electrones.[15], J Moreno [16][17][18][19], Presenta diferentes investigaciones en el desarrollo amplificadores de alta potencia de RF, con base normalmente en AlGaN / GaN son heteroestructuras de transistores de efecto campo (HFETs). El amplificador presenta unas características de ventajas impresionantes como son la densidad de corriente y la densidad de potencia. Es importante señalar que la tecnología GaN funciona a bajo ruido y trabajan a grandes potencias de entradas, Como ejemplo, un amplificador a bajo ruido (LNA) operativo en la banda de frecuencia de 3-7-GHz utiliza una figura de ruido (NF) por debajo de 2,3 db, y un BW desde 3,5 hasta 7 GHz con NF 1 a 8 db entre GHz 5-7. Este dispositivo funciono a 33 dbm a la entrada de potencia por 16 h sin ningún cambio en el rendimiento a bajo ruido, en su funcionamiento se logró apreciar que la auto-polarización es el factor más crítico en cuanto a la supervivencia, L.-S. Liu y D. y MacFarlane[20],D. MacFarlane, Caracteriza a pequeña señal y el pulso de AlN / GaN HEMT-MOS [21]AE Rafei, muestra la extracción de los parámetros S para la caracterización AlInN/GaN HEMTS basándose en efectos de dispersión en bajas frecuencias.[22] El Analizador Vectorial de redes (VNA) para un funcionamiento debe ser calibrado previamente a su utilización para cada medición, permitiendo corregir los errores sistemáticos, por esto se aplica el proceso de corrección de los parámetros medidos de dispersión y finalmente obtener los parámetros S corregidos los cuales representan los parámetros de caracterización del Dispositivo DUT, para así almacenarlos en un banco de mediciones que optimice su utilización. D. E. Bockelman presenta teóricamente la calibración del analizador generalmente a n-puerto del analizador, incluyendo la corrección de la diafonía de puerto a puerto. También muestra las normas utilizadas en la calibración y el número mínimo de estándares[23], igualmente I. Rolfe nos muestra un trabajo de Calibración unidad de medida para la automatización de las mediciones del vector analizador de red [24], Zhao muestra Calibración algoritmo del analizador vectorial de n- puerto de red utilizando la ecuación general de nodo y La calibración del VNA de tres puertos con el General 6 Plazo modelo de error [25] [26] Un banco de pruebas es una plataforma para experimentación de proyectos de gran desarrollo. Los bancos de pruebas brindan una forma de comprobación rigurosa, transparente y repetible de teorías científicas, elementos computacionales, y otras nuevas tecnologías. Puede ser implementado 57

59 como un entorno de pruebas, pero no necesariamente con el propósito de verificar seguridad. Un banco de pruebas se usa cuando un nuevo módulo se prueba aparte del programa al que luego será agregado. B. Leskovar muestra un sistema de mediciones o banco para las características de los dispositivos de carga, A. RaffoJ. Y H. Mehdi Un Sistema de Medición automatizada para la caracterización de Electron Device degradación en régimen no lineal. Mejoramiento de la dotación - Transitorio de parámetros S de simulación de circuitos y sistemas simulación, D. Griffin presento la construcción un banco de pruebas para antena mediciones RFID, [27][28][[29] también Y Fu presenta un trabajo de Caracterización de antenas integradas en las frecuencias de ondas milimétricas [30]. M. Mabrouk describe los requisitos de prueba de señal mixta de dispositivos RF y Microondas[31] CARACTERIZACION En la mayoría de los diseños del amplificador de RF las oscilaciones se presentan en corto periodo lo que causa variaciones en las mediciones, generando un circuito inestable cuando una señal crece sin ningún límite. La no-linealidad de los dispositivos podría restringir el nivel máximo de la señal de entrada. Aunque la estabilidad es unas características importantes de los dispositivos, el fabricante omite información debido a intereses, ya que los transistores de Rf y microondas son potencialmente inestables a ciertas frecuencias. La estabilidad de los dispositivos Rf es evaluada en función de los parámetros S a pequeña señal, debido a que los modelos no-lineales no están disponibles para realizar análisis a gran señal bajo criterios Nyquist. El análisis a pequeña señal es tomado como punto de partida para el posterior análisis de la estabilidad del dispositivo a gran señal. El comportamiento de los amplificadores de potencia depende de la composición con los cuales fueron fabricados. Las principales figuras de méritos son la eficiencia, ganancia y linealidad. Estos parámetros son inversamente proporcionales a la frecuencia con la que trabajan, por lo tanto al trabajar a bajas frecuencias hay un umbral de gran potencia y relativamente a potencia baja la frecuencia es alta. La ganancia de potencia (G) en un dispositivo activo, está determinado bajo la razón entre la potencia de salida (Psal) y la potencia de entrada (Pent). ( ) { } { } (4) Donde (Isal) es la corriente que circula a través de la impedancia de salida (Zsal), mientras que (Ient) es la corriente de entrada que fluye en la impedancia de entrada (Zent). El comportamiento de la linealidad toma gran importancia en sistemas que requieran que la señal sea nitida, es decir, necesitan que no presenten distorsiones en el proceso de amplificación, para tomar una correcta interpretacion en el receptor. Una eficiencia buena, se logra haciendo que el dispositivo activo trabaje cerca de la region conocida como saturación, lo que genera una degradacion significativa en la linealidad del sistema. [32] ESTRATEGIA DE MEDICION Para poner en funcionamiento la estrategia de medición se lleva a cabo la toma de mediciones de datos en el laboratorio de electrónica, donde se encargan de adquirir medidas de espectro de radio frecuencia y microondas, donde la toma de datos tiene un retardo considerable en tiempo para dar resultados. Por esta razón se presenta un prototipo de software para el control remoto, análisis y gestión de datos para medir parámetros S y de potencia en los dispositivos Rf y microondas, el cual simplifica la adquisición y almacenamiento de los resultados de las medidas y genera automáticamente las gráficas de las mismas. Facilitando al estudiante el almacenamiento, gestión y análisis de datos, reduciendo tiempo en la espera de los resultados. A. configuración y montaje en el laboratorio Los instrumentos utilizados para la toma de mediciones de dispositivos Rf y microondas son: 58

60 El Analizador vectorial de redes (VNA) Rohde & Schwarz ZVB 8, el cual permite caracterizar los parámetros S. El multímetro 3061 RIGOL, permite tomar las medidas de voltaje y corriente de entrada y polarización del DUT Estos dispositivos están enlazados a un equipo de cómputo de la siguiente manera, el VNA se conecta mediante un cable de red cruzado, utilizando el protocolo TCP/IP, el multímetro Rigol y el sensor de potencia están igualmente conectados, con una interfaz USB. Como se muestra en la figura3. Fig. 2. Muestra la manera en que van conectados los instrumentos al pc. Es de importancia anotar que los instrumentos de medición están conectados al DUT. El software que se encuentra en el equipo de cómputo se encarga de hacer la captura de datos que arrojan los instrumentos de medición. B. Resultados y logros El desarrollo del software ofrece ventajas como la captura en tiempo real los datos de los parámetros S y variables de voltaje y corriente de los circuitos de RF y microondas para compararlos con los datos obtenidos en el diseño generado por el simulador ADSL; se reduce el tiempo de medición permitiendo superar dificultades en toma de datos erróneos; la captura de datos es de forma inmediata y personal permitiendo que el estudiante manipule los instrumentos a través de un equipo de cómputo externo; el estudiante desarrolla habilidades como la comprensión y análisis de las gráficas de potencia, eficiencia y ganancia de los circuitos de telecomunicaciones. Por este motivo el desarrollo del software facilitará la adquisición de datos disminuyendo los tiempos en toma de medidas y las posteriores gráficas de las variables, facilitando comparación de los modelos simulados y el desarrollo real del circuito. La utilización de los analizadores vectoriales son de importancia en la comprensión de los circuitos de RF y microondas, debido a que proporciona información sobre el comportamiento de un dispositivo cuando este recibe, por alguna de sus entradas, una señal eléctrica. En otras palabras indica cuanto de esta señal logra salir y cuanto simplemente es reflejado por la misma entrada que recibió la señal. El desarrollo del software facilita la captura de datos que genera el VNA, el sensor de potencia, y el multímetro de marca Rigol. La propuesta metodológica contribuye a una mejor comprensión de los contenidos amplificadores y facilita al grupo de investigación el análisis de amplificadores de alta potencia y filtros para señales de radiofrecuencia. Esta investigación busca que el software desarrollado se utilice como una herramienta de apoyo al proceso de estudio del grupo GINTEL de la universidad UPTC; con respecto a esto se puede afirmar que tiene a favor que el joven investigador mejore su actividad de estudio en el entorno de analizar el diseño y fabricación elementos de RF y microondas. Con la puesta en marcha del software se mejora la tediosa cantidad de veces que se tuviera que repetir la media de los parámetros S, lo que hace que el software sea dinámico y funcional en el proceso de caracterizar dispositivos de Rf y microondas. CONCLUSIONES Desarrollar un software que capture los datos de cuatro instrumentos electrónicos y lo integre es el eje de la investigación. Se analizó el funcionamiento de los equipos y posterior consulta de la página web del fabricante buscando información para facilitar la tarea de extraer información, en tiempo real de los equipos, llegando a la conclusión que el sistema operativo es fundamental a la hora desarrollar la aplicación. La presente investigación aprovecha la tecnología de desarrollo de Microsoft como visual.net para poder 59

61 desarrollar la aplicación que integre tecnologías de Rohde & Schwarz y Rigol Teniendo en cuenta las propiedades del software, se llegó a su creación, con la certeza de que es un paso adelante en la investigación de las telecomunicaciones, porque se adapta a las necesidades específicas del medio educativo de la investigación de la universidad y va agilizar los resultados de adquisición de mediciones en dispositivos Rf y microondas; además brinda un soporte para continuar con futuros estudios. REFERENCIAS [1] G. Gonzalez, Microwave transistor amplifiers, analisys and design, Second edi [2] S. Padilla-corral and I. García-ruiz, ANALIZADOR VECTORIAL DE REDES, pp. 1 11, [3] R. L. y M. H. E. G.-J. J. López-Bonilla2, Ingeniare. Revista chilena de ingeniería, UNA PROPUESTA DIDÁCTICA PARA LA CARACTERIZACIÓN DE DISPOSITIVOS Y REDES ELÉCTRICAS DE RADIOFRECUENCIA EN LA BANDA DE 100 KHz A 500 MHz, [4] J. L. Bianco, Fernando L; Naldini, GermanE; Amado, Modelo de medicion de Parámetros S para Analizador vectorial de redes, [5] H. Tempone, Figura 1: Analizador Vectorial de Redes, con un kit de calibración TOSM, juego de llaves torquimétricas y medidor de profundidad del pin de los conectores. Laboratorio de Metrología RF & Microondas INTI., pp. 2 3, [6] Agilent and Technologies, Network Analyzer Basics, p. [Accedido enero 10, 2014], [7] V. Teppati, S. Pinarello, A. Ferrero, and I. Technologies, An unconventional VNAbased time-domain waveform load-pull test bench, pp , [8] T. G. Ruttan, B. Grossman, A. Ferrero, and V. Teppati, Thomas G. Ruttan and Brett Grossman are with Intel Corp. Andrea Ferrero and Valeria Teppati are with Politecnico Di Torino. Jon Martens is with Anritsu Corp., Multiport VNA Measurements, no. June, pp , [9] T. Ishida, K. Yamaguchi, T. Ishizaki, and I. Awai, FRI-H-4 Novel Measurement Technique of WPT Circuits using VNA and Its Data Transformation into 0-ohm System, no. 2, pp , [10] S. Nimmagadda, J. Dillon, and M. View, High HSPICE, pp [11] A. Ferrero, M. Garelli, B. Grossman, S. Choon, y V. Teppati, «Uncertainty in multiport S-parameters measurements», in th ARFTG Microwave Measurement Conference: Design and Measurement of Microwave Systems, ARFTG 2011, [12] M. Je, J. Han, H. Shin, y K. Lee, «A simple four-terminal small-signal model of RF MOSFETs and its parameter extraction», Microelectronics Reliability, vol. 43, no. 4, pp , abr [13] G. Álvarez-Botero, R. Torres-Torres, y R. Murphy-Arteaga, «Using S-parameter measurements to determine the threshold voltage, gain factor, and mobility degradation factor for microwave bulk-mosfets», Microelectronics Reliability, vol. 51, no. 2, pp [14] C. Urban, M. Emam, C. Sandow, Q. T. Zhao, A. Fox, S. Mantl, y J.-P. Raskin, «Small-signal analysis of high-performance p- and n-type SOI SB-MOSFETs with dopant segregation», Solid-State Electronics, vol. 54, no. 9, pp , sep [15] F. Vanaverbeke, K. Vaesen, D. Xiao, L. Pauwels, W. De Raedt, M. Germain, S. Degroote, J. Das, J. Derluyn, and D. Schreurs, A load-pull wafer-mapper, 2008 IEEE MTT-S International Microwave Symposium Digest, no. 1, pp , Jun

62 [16] Jorge Moreno Rubio, Jie Fang, Vittorio Camarchia, Roberto Quaglia, Marco Pirola, Giovanni Ghione (2012) GHz Wideband GaN Doherty power amplifier exploiting output compensation stages. In: IEEE TRANSACTIONS ON MICROWAVE THEORY AND TECHNIQUES, vol. 60. [17] Jie Fang, Jorge Moreno, Roberto Quaglia, Vittorio Camarchia, Marco Pirola, Simona Donati Guerrieri, Chiara Ramella, Giovanni Ghione (2012) 3.5 GHz WiMAX GaN Doherty Power Amplifier with 2nd harmonic tuning. In: MICROWAVE AND OPTICAL TECHNOLOGY LETTERS, vo. [18] J. Moreno, Jie Fang, R. Quaglia, V. Camarchia, M. Pirola, G. Ghione (2012) Development of single-stage and Doherty GaN-based hybrid RF power amplifiers for quasi-constant envelope and high PAPR wireless standards. In: MICROWAVE AND OPTICAL TECHNOLOGY LETT. [19] Moreno Rubio J., Fang J., Quaglia R., Camarchia V., Pirola M., Donati Guerrieri S., Ghione G. (2011) A 22W 65% efficiency GaN Doherty power amplifier at 3.5 GHz for WiMAX applications. In: Integrated Nonlinear Microwave and Millimetre-Wave Circuits (INMMI. [20] L.-S. Liu y J. Luo, «Improved large-signal GaN HEMT model suitable for intermodulation distortion analysis», International Journal of Electronics, vol. 98, no. 12, pp , [21] D. MacFarlane, S. Taking, S. K. Murad, y E. Wasige, «Small signal and pulse characteristics of AlN/GaN MOS-HEMTs», in European Microwave Week 2011: «Wave to the Future», EuMW 2011, Conference Proceedings - 6th European Microwave Integrated Circuit Confere. [22] A. E. Rafei, G. Callet, G. Mouginot, J. Faraj, S. Laurent, M. Prigent, R. Quere, O. Jardel, y S. Delage, «DC (10 Hz) to RF (40 GHz) output conduction extraction by S- parameters measurements for in-depth characterization of AlInN/GaN HEMTS, focusing on low. [23] D. E. Bockelman y W. R. Eisenstadt, «Calibration and verification of the puremode vector network analyzer», IEEE Transactions on Microwave Theory and Techniques, vol. 46, no. 7, pp , [24] I. Rolfes, B. Will, and B. Schiek, Calibration-measurement unit for the automation of vector network analyzer measurements, Advances in Radio Science, vol. 6, pp , May [25] W. Zhao, Y.-J. Zhao, H.-B. Qin, L. Qiang, and B. Liu, Calibration algorithm of the n- port vector network analyser using the general node equation, IET Science, Measurement & Technology, vol. 4, no. 6, p. 298, [26] W. Zhao, Y.-J. Zhao, and H.-B. Qin, Calibration of the Three-Port VNA using the General 6-Term Error Model, Journal of Electromagnetic Waves and Applications, vol. 24, no. 2 3, pp , Jan [27] A. Raffo, V. Di Giacomo, S. Member, P. A. Traverso, A. Santarelli, and G. Vannini, An Automated Measurement System for the Characterization of Electron Device Degradation Under Nonlinear Dynamic Regime, vol. 58, no. 8, pp , [28] J. D. Griffin, G. D. Durgin, and A. Haldi, RFID Antenna Test Bed, pp , [29] H. Mehdi, S. Mons, A. Bennadji, E. Ngoya, y R. Quere, «Improvement of the envelope - Transient S-parameters simulation in circuit and system simulation», International Journal of Microwave and Wireless Technologies, vol. 3, no. 6, pp , [30] No Y. Fu, L. Dussopt, T. P. Vuong, y F. Ndagijimana, «Characterization of integrated antennas at millimeter-wave frequencies», International Journal of Microwave and Wireless Technologies, vol. 4, no. 1, pp ,

63 [31] M. Mabrouk and I. Member, RF and Microwave Production Test Requirements for Advanced Mixed-Signal Devices, pp. 0 3, [32] J. Carlos and M. U. Noz, Y CONSTRUCCI ON DE PROTOTIPOS METODOLOG IA DE DISE NO,

64 Diseño De Un Controlador Difuso Para Asignación Dinámica De Ancho De Banda En Un Switch Joaquín F Sánchez, Fundación para la educación superior San Mateo Resumen En este artículo se hace el diseño de un controlador difuso que tiene como tarea realizar una asignación dinámica del ancho de banda en una red IP. Se utiliza el toolbox de MATLAB, Fuzzy Logic, el cual resulta una herramienta muy útil, ya que se pueden ver las etapas de un controlador difuso y permite modelar de una buena manera las variables que interactúan en el sistema. Abstract This paper describes the design of a fuzzy controller which is tasked to perform a dynamic bandwidth allocation in an IP network is done. The toolbox of MATLAB, Fuzzy Logic, which is a very useful tool is used, because you can see the steps of a fuzzy controller and allows modeling of a good way of interacting variables in the system. Palabras clave Lógica difusa, sistema de control difuso, redes de datos, asignación de ancho de banda. Index Terms Fuzzy logic, fuzzy control system, data networks, bandwidth. E INTRODUCTION N este artículo se expondrá los aspectos más relevantes que conducen a la solución de un problema, pero explorando dicha solución con métodos de sistemas inteligentes. El problema que se está planteando es la asignación de ancho de banda en redes de datos IP. En la actualidad las redes de comunicaciones han cobrado una importancia relevante en el mundo entero, ya que han facilitado los procesos de comunicaciones y ayudando a tener una forma de ver, entender y hacer las actividades cotidianas. Un forma de hacer que las redes de comunicaciones funcionen, es bajo el desarrollo de protocolos que ayudan a que los equipos que componen las redes se puedan entender entre si y uno de los protocolos que mejor se a acomodado a las redes de datos, es el protocolo IP, el cual se basa en el principio de fragmentar la información en unidades de información llamados paquetes, de esta forma lograr que los paquetes sean transmitidos a través de la red con mayor facilidad y eficiencia. Claro está que para poder efectuar este proceso, el protocolo se soporta sobre un activo físico llamado enlaces de datos, estos enlaces de datos, también tienen unas características relevantes como, medios de transmisión, ancho de banda, tiempo de retardos, entre otros, y es acá, en la característica del ancho de banda donde las redes de datos IP empiezan a tener problemas para conseguir sus propósito. Ya que el ancho de banda empieza a ser un recurso finito que deberá atender una demanda creciente como se ha visto en las ultimas décadas, en donde las nuevas aplicaciones que se diseñan para las comunicaciones en red, son cada vez más robustas y para funcionar mejor solicitan como requerimiento mínimo un gran ancho de banda. Debido a este factor y otros elementos que impactan a las redes de comunicaciones se empieza a presentar un fenómeno llamado congestión, lo que ocasiona consecuencias conocidas por los usuarios de las redes como lentitud y perdida de paquetes, entre las más relevantes. De modo que se han desarrollado varias técnicas para controlar este fenómeno que afectan a las redes de datos. Una de las técnicas más relevantes es desarrollada con protocolos en la capa de transporte del modelo OSI, este protocolo es TCP (Tranport Control Protocol) en donde el control de flujos se hace a través de ventana deslizante o con técnicas ARQ (Automatic Repeat Request), sin embargo estos esfuerzos se han quedado cortos para hacer un control efectivo ya que las escalas de nuevos usuarios que usan las redes IP para comunicarse crecen de manera exponencial. Ya que se ha evaluado de una manera general la situación actual de las redes IP, se han enfilado los esfuerzos de nuevas investigaciones 63

65 para producir nuevas técnicas de control de congestión, una de las cuales se ve en [1] en donde se expone un método que podría ayudar a realizar un control de congestión de forma eficiente. La cuestión se basa en la asignación de ancho de banda de forma dinámica en redes inalámbricas. Este enfoque es interesante por que un factor que no se puede controlar de forma dinámica como el ancho de banda es una manera de realizar un manejo de forma eficiente la red. Como se puede ver en [7] [8]. Este escrito tiene como finalidad proponer una forma de resolver el problema de la asignación del ancho de banda de forma dinámica, pero con un sistema inteligente que ayude a tener un desempeño deseable y una aplicabilidad en la arquitectura de redes de datos. Enfoque Práctico. ENFOQUE DE LA SOLUCIÓN Para empezar a describir la solución que se quiere implementar, hay que tener en cuenta que para este problema de asignación de ancho de banda, se puede atacar con varias técnicas de sistemas inteligentes. Hay una variedad de aplicaciones que pueden servir para este problema. Empezando desde el diseño de sistemas inteligentes, redes neuronales, algoritmos genéticos o lógica difusa, aplicándola a sistemas de control. Pero hay que tener en cuenta cual de las anteriores aplicaciones es la más indicada para tratar el problema de la asignación de ancho de banda. TABLA I Técnica Ventaja Desventaja Puntuación Algoritmo Optimización No da una 2 Genético solución fija Agente Percepción del Costo 2 inteligente medio computacional Control Control de Definición 5 Difuso variables base de conocimiento Red Seguimiento Función de 4 Neuronal de variables adaptación Comparación de técnicas computacionales En la Tabla 1 se trata de hacer una comparación de las técnicas más relevantes de sistemas inteligentes. Se dio una puntación, según las necesidades del problema. Para el caso particular de este trabajo se ha escogido el sistema de control difuso, ya que da ventajas sobre el control de las variables, que se pueden aprovechar para la asignación del ancho de banda. Otro aspecto importante a tener en cuenta es que para este proyecto se trabajó en la asignación dinámica de la velocidad de transmisión de un puerto especifico, dado que la velocidad de transmisión va ligado con el ancho de banda en un canal de comunicaciones, entre más velocidad de transmisión se tenga, mas ancho de banda existirá y entre menos velocidad, menos ancho de banda. El controlador difuso que se diseña para la solución de este problema es basado en la herramienta de MATLAB FUZZY LOGIC, que es una herramienta de fácil manejo que permite plantear las diferentes variables del controlador difuso y realiza las operaciones de FIZZIFIER, reglas, inferencia y DEFUZZIFIER. El método que utiliza esta herramienta es el método de Mamdani, el cual consiste en hacer una serie de pasos que van desde pasar los valores discretos por lo elementos del controlador difuso, hasta obtener los valores discretos de la salida. El proceso consta de las siguientes etapas: evaluación del antecedente de la regla, obtener la conclusión de la regla, agregar la conclusión a cada regla, hacer el proceso de DEFUZZIFIER. Fig. 1. Esquema controlador Difuso MATLAB En la Fig. 1, se observa un diagrama de bloques que representa el controlado difuso, el cual se trabaja en este proyecto. El primer bloque hace referencia a las variables de entrada y las funciones de membresía que se trabajan. El bloque de la mitad, es donde se guardan las reglas de la base de conocimiento y en donde se realiza el proceso de inferencia. El bloque de la derecha representa el proceso de DESFUZZIFIER, en donde se pasan los valores difusos a valores concretos, que al final de cuenta son los valores que afectaran la velocidad de transmisión de los puertos del switch. Las variables que se tuvieron en cuenta para la entrada del controlador y sus funciones de membresía son las siguientes: 64

66 Tiempo de respuesta (TR) Fig. 6. Función de membresía Velocidad del puerto. Fig. 2. Función de membresía TR Porcentaje de utilización (PU) Fig. 3. Función de membresía PU Paquetes perdidos (PP) Fig. 4. Función de membresía PP Equipos conectados (EC) El siguiente componente del controlador difuso son las reglas para la inferencia del sistema. Las pruebas que se realizaron, se hicieron de forma independiente con cada variable de entrada, pero para observar como se comportaba el sistema con las variables interactuando todas a la vez, se obtiene, la siguiente base de reglas: 1. IF(TR es bajo) and (utill is Bajo) and (EC is Pocos) THEN (Veloc is Rapido) 2. IF(TR es medio) and (utill is Medio) and (EC is Normal) THEN (Veloc is Normal) 3. IF(TR es Alto) and (utill is Alto) and (EC is Mucho) THEN (Veloc is lento) 4. IF(TR es bajo) and (utill is Medio) and (EC is Normal) THEN (Veloc is Normal) 5. IF(TR es medio) and (utill is Alto) and (EC is Muchos) THEN (Veloc is Lento) 6. IF(TR es alto) and (utill is Bajo) and (EC is Normal) THEN (Veloc is Lento) En la base de reglas de conocimiento que se ha listado, se pueden observar, cuales fueron los términos lingüísticos que se están manejando en el controlador difuso. Por ejemplo en la variable tiempo de respuesta (TR) se utilizan los términos bajo, medio y alto, que son medidas que no definen valores concretos, esto hace que la lógica difusa tenga algunas ventajas sobre la representación del conocimiento de los problemas en ingeniería. Fig. 5. Función de membresía EC Las anteriores figuras 2, 3, 4, 5, corresponden a las variables de entrada con sus respectivas funciones de membresía, estas funciones se escogieron basándose en el comportamiento de las muestras que se recolectaron en las trazas de una red LAN. Por otro lado la función de membresía de la variable de salida esta dada como velocidad del puerto. La función de esta variable se puede observar en la Figura 6: Algoritmo utilizado El sistema de control difuso trabaja con el método de Mamdani, de modo que para hacer el proceso de DESFUZZIFIER hace que la aplicación de un término de agregación entre las diferentes variables difusas del controlador. En la Figura 7 se muestra un ejemplo de este procedimiento para las tres variables de relevancia del controlador. El método Mamdani FCL utiliza leyes de control consistentes en reglas lógicas IF THEN en conjunto con funciones de membresías para controlar el 65

67 proceso de minimizar el error. Este método utiliza el error e(k) y el cambio del error Δ e(k) para producir cambios en la función de salida del controlador. Como se puede observar, después de hacer una evaluación de las entradas, con las reglas y el proceso de inferencia basado en el método de Mamdani se obtiene un valor en discreto, que para este ejemplo es una velocidad para un puerto del switch de 0.5 % Fig. 8. Proyección de la solución en 3D DESCRIPCIÓN DE LOS DATOS Y EL EXPERIMENTO. Datos usados en los experimentos. Los datos que se usaran en el proceso de experimentación son datos que se obtienen de la captura de una red LAN corporativa. Esta red corporativa se divide en 11 sub-redes, en donde las mediciones que se toman se hacen sobre los servidores y switch, las variables que se tienen sobre la red son: tiempo de respuesta (TR), porcentaje de utilización (PU), paquetes perdidos (PP), equipos conectados (EC). Con estas variables se hace un análisis previo para poder realizar una buena definición de las variables del sistema de controlador difuso. Fig. 7. Proceso de DESFUZZIFIER para la evaluación de las variables de entrada del controlador difuso. En la Figura 7 se encuentra gráficamente la evaluación de las variables de entrada que son resueltas por el método Mamdani y que dan como resultado el valor discreto para la variable de salida Veloc. Dicha variable controla la velocidad del puesto del switch. La proyección de la simulación se muestra en la siguiente figura: Fig. 9. Arquitectura de la red LAN corporativa. Comportamiento de los datos Para empezar a realizar el proceso de análisis de los datos que se obtienen en las subredes de la red LAN corporativa, se hace un proceso de toma de muestras. Estas muestras son guardadas en un archivo plano en donde están las variables anterior mente mencionadas. 66

68 Tabla 2. Variación de la variable de entrada TR (ms) PU(%) EC (Und) Veloc (%) 2,64 0,2 13 0,5 5,36 0,2 13 0,5 11,1 0,2 13 0,5 16,7 0,2 13 0,49 26,9 0,2 13 0,35 Fig. 10. Comportamiento del tiempo de respuesta en las capturas. Las muestras que se observan en la Figura 10 corresponden al tiempo de respuesta (TR), este tiempo de respuesta hace referencia al tiempo que tarda un paquete en ir desde el core hasta el puerto del swtich en donde están los equipos conectados. Todas las muestras son tomadas a través de comandos SMNP (Simple Managemenrn Network Protocol). Hay que hacer la anotación que estas muestras tiene valores del comportamiento de la red LAN, pero las variables como el porcentaje de utilización (PU) paquetes perdidos (PP) no son variables de referencia para la asignación del ancho de banda, de modo que para la caracterización de las entradas del controlador, se trabajan con la variable de tiempo de respuesta (TR) y equipos conectados (EC) RESULTADOS Después de haber planteado las variables de entrada y la variable de salida en el controlador difuso, se propone hacer la relación de tres variables de entrada, que son tiempo de respuesta (TR), porcentaje de utilización (PU) y equipos conectados (EC), la variable de salida será velocidad en el puesto (Veloc). El valor de la variable de salida, representa que tanto debe variar la velocidad en un puerto dado del switch. Esta variable se tipifico en un rango de (0-1) en donde cero representa que no se debe cambiar la velocidad del puerto y 1 que se debe cambiar en 100 % la velocidad. Es decir, si se tiene una salida de 1 y la velocidad del puerto es de 100 Mbps, hay que subir la velocidad a 200 Mbps. Lo que se busca con el sistema es que dependiendo de las condiciones actuales de una red LAN, se pueda ofrecer un mejor desempeño. Se plantea la siguiente tabla de resultados, variando los valores de entrada de cada una de las variables. 2,64 0,5 13 0,5 2,64 0,8 13 0,5 2,64 0,9 13 0,5 2,64 0,2 5 0,77 2,64 0,2 20 0,5 2,64 0,2 35 0,5 En la tabla 2 se puede observar cuales son los resultados de las tres variables interactuando entre si, el procedimiento que se llevo a cabo, fue hacer un barrido con valores representativos de cada variable, para ver como se comportaba la salida del sistema. Primero se vario el tiempo de retardo (TR), las otras dos variables, porcentaje de utilización (PU) y equipos conectados (EC) se dejaron en sus valores típicos según los datos analizados de las capturas hechas. Para esta variación de observa que entre mas alto el tiempo de respuesta la velocidad del puerto se reduce. Esto en términos técnicos, indicaría que el dispositivo de red en este caso el swtich debe reducir el ancho de banda, para que se normalice el tráfico que esta cursando en este momento en la red LAN. La otra variables que se cambio fue el porcentaje de utilización (PU), el cual no tuvo cambios significativos, pero la variable de equipos conectados (EC) si impacta fuerte al sistema de control difuso, ya que si hay menos equipos conectados, la velocidad del puerto aumenta. Esto ratifica que uno de los factores de congestión es la cantidad de usuarios conectados, que hacen todo tipo de peticiones a la red LAN. En los resultados mostrados en la tabla 2, hay un tópico interesante y es que con los valores típicos que representan congestión en la red LAN, el ajuste que se debería hace es del 50% de la velocidad en el elemento de red. La variable que no se ha relacionado en las pruebas es la de paquetes perdidos (PP), que es una variable delicada, ya que si en una red LAN se 67

69 llegan a presentar paquetes perdidos es indicio de que existen un defecto físico que puede ser en el elemento de red, o en el medio de transmisión. Los resultados con la nueva variable son: los datos que salen controlador difuso. después de pasar por el Tabla 3. Variación de las variable de entrada mas PP TR (ms) PU(%) EC(Und) PP (%) Veloc(%) 2,64 0, ,493 5,36 0, ,497 11,1 0, ,497 16,7 0, ,497 26,9 0, ,472 2,64 0, ,496 2,64 0, ,497 2,64 0, ,495 2,64 0, ,55 2,64 0, ,5 2,64 0, ,5 Fig. 11. Tráfico entrante y saliente del elemento de red. Como se puede observar en la tabla 3, los valores de la salida, de la velocidad del puerto no cambia mucho, pero si afecta la mejor configuración, que es cuando hay pocos equipos conectados. En la prueba anterior la velocidad del puerto aumentaba en 0,77 en esta ocasión la velocidad quedo en 0,55. De modo que se puede ver que la perdida de paquetes es una variables de consideración para el controlador difuso. Con los resultados obtenidos del controlador difuso, el siguiente pasa consiste en verificar el comportamiento de los datos que son procesados en el elemento de red. Para lograr mostrar esto se crea un escenario simulado de tráfico que cursa por una red LAN. Se muestran dos etapas, el tráfico que entra al elemento de red, el tráfico que sale, después de pasar por el controlador difuso. Para poder entender mejor como fue el comportamiento de los datos después de pasar por el controlador, se hace un análisis estadístico de la tasa de entrada, con la tasa de salida. Hay que hacer la anotación de que los datos son de naturaleza aleatoria y tratan de seguir el comportamiento característico de los datos de una red LAN. En la Figura 11 se observa los datos que se crean los cuales entran en el switch, la traza roja, son Fig. 12 Comportamiento de estadístico de las tasas de arribo y de salida. En la Figura 12 se observa el comportamiento estadístico de las ratas de entrada y de salida. Como la idea del controlador difuso es hacer una reducción de la velocidad en un porcentaje establecido en las tablas 2 y 3 el cambio en la traza azul corresponde a los datos que no pasan por el switch, ya que son grandes. De modo que esto ayudara a mejorar el desempeño de los elemento de red, para atender las peticiones de los usuarios. CONCLUSIONES En este artículo se ha hecho una recopilación de los aspectos fundamentales en la definición de un sistema de control difuso para la asignación de ancho de banda en redes IP. Se utilizo el programa de Toolboxe de MATLAB Fuzzy Logic en donde se 68

70 diseñaron las variables de entrada y variable de salida de un controlador difuso, en este diseño se realiza la definición de las funciones de membresía que son fundamentales para que el controlador difuso pueda tomar decisiones. Por otro lado se diseño la base de reglas de inferencia, que van de la mano con las variables de entrada y de salida. Este controlador utiliza el método de Mamdani el cual consiste en utilizar operaciones de max-min, para realizar la inferencia y DESFUZZIFIER. Realizando varias pruebas con el controlado, se tiene que para condiciones de congestión lo máximo que se varia la velocidad en los puertos del switch es del 50%, como ejemplo se puede tomar que si hay una velocidad en el puerto de 100 Mbps y en ese instante de tiempo se detecta congestión, el puerto sube la velocidad a 150 Mbps. De esta forma se realizan varias pruebas que se muestran en las tablas 2 y 3; en condiciones extremas de congestión el pico máximo para subir la velocidad el puerto es del 77 %, este valor es algo pretencioso, ya que por dar esta cobertura en velocidad en un puerto se puede afectar a otros usuarios que estén conectados en el mismo switch. Por ultimo, se hace una verificación de cómo funcionaria en un entorno real, el controlador difuso, los resultados son alentadores, ya que se observa que el comportamiento de los datos tiende a reducir la congestión de la red. itel/denzerlopezgonzalezsubmitted.pdf. [3] Carbonell Pablo, Zhong-Ping Jiang, Shivendra Panwar. FUZZY TCP: A PRELIMINARY STUDY. Proceedings of the 15th IFAC World Congress, 2002 World Congress,Volume 15 Part 1. [4] Comer, Douglas E., Internetworking with TCP/IP, 3a edición, Volumen 1: Principles, Potocols and Architectures, Prentice-Hall, [5] JERRY M. MENDEL. FUZZY LOGIC SYSTEMS FOR ENGINEERING: A TUTORIAL. Disponible en al_errata.pdf [6] This time: Fuzzy Logic and Fuzzy Inference. Disponible en [7] F. Montesino, D. R. López, A. Barriga, S. Sánchez-Solano. "Sistemas Difusos para Control de Congestión y Calidad de Servicio en Internet" Proc. XII Congreso Español de Tecnologías y Lógica Fuzzy, pp , Jaén, Sep , Yannis A. Phillis. Runtong Zhang "Fuzzy Service Control of Queueing Systems".Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on (Volume:29, Issue: 4 ) VOL. 29, NO. 4, AUGUST 1999 RECOMENDACIONES PARA MEJORAR LA PROPUESTA Para mejorar la propuesta se deben realizar mediciones de otro tipo de variables de la red LAN, de modo que se puedan plantear otras variables de entrada, funciones de membresía y base de reglas de conocimiento, la idea es tener un referente más cerca de la realidad. Otro aspecto es hacer pruebas del controlador difuso sobre un elemento de red en producción, de este modo se tendrán mas puntos a considerar para el afinamiento del controlador. REFERENCIAS [1] H. Shan K. Chen K. Nahrstedt Dynamic Bandwidth Management for Single-hop Ad Hoc Wireless Networks Pervasive Computing and Communications, (PerCom 2003). Proceedings of the First IEEE International Conference on March [2] Denzer Patricio, Waldo López Rubio, Agustín J. González ADMINISTRACIÓN DE ANCHO DE BANDA MEDIANTE UN ROUTER CISCO Disponible en 69

71 Análisis Forense En Dispositivos Móviles Con Sistema Operativo Android: Estado Del Arte Johan Smith Rueda Rueda, y Dewar Rico Bautista, Semillero de Investigación GNU/Linux And Security (SIGLAS), Universidad Francisco de Paula Santander Ocaña (U.F.P.S.O.) Resumen En la actualidad, los dispositivos móviles son importantes para las comunicaciones de las personas. Cada día se maneja más información y de mayor importancia, convirtiendo a estos dispositivos en un objetivo importante para los cibercriminales. El sistema operativo Android por su popularidad y funcionamiento, es blanco de la mayoría de los ataques informáticos que sufren los dispositivos móviles. En este sentido, la informática forense móvil desempeña un papel importante. Es la encargada de recolectar la evidencia, preservarla, examina, analiza y presenta los resultados del análisis de la evidencia. El informe presentado, servirá como soporte legal en un procedimiento legal, cumpliendo con el propósito de la informática forense. Index Terms Análisis forense digital móvil, Dispositivos Android, Estado del arte, Informática forense. Abstract Nowadays, the mobile devices are significant for people s communication. Every day, the people manage more and more important information, making those devices a great target for cybercriminals. The Android OS for its popularity and performance, it is the victim of the most computer attacks suffered by mobile devices. It is this sense where mobile digital forensics plays an important role. It s in charge of evidence collection, preservation, examination, analysis and presentation of results of the evidence analysis. The report presented, will serve as legal support in a legal proceeding, fulfilling the purpose of computer forensics. Index Terms Android Device, Forensic Computer, Mobile Forensic Analysis, State of the Art. L INTRODUCTION a evolución de los dispositivos móviles es cada vez mayor, su funcionalidad ya no es la misma que unos años atrás. Dicha funcionalidades son mucho más avanzadas, han pasado a ser computadores de mano. Por esta razón, las actividades cotidianas de las personas como revisar correos electrónicos, redes sociales, sitios de interés, incluso la banca online, han pasado a realizarse en dichos dispositivos. Éstos, se han convertido en una extensión de la vida diaria de la personas, personal como laboralmente. Con el uso masivo delos dispositivos móviles, el mercado destinado a estas terminales ha crecido fuertemente: cada día los servicios ofrecidos son más cuantiosos, las aplicaciones son más numerosas. Factores como el lugar donde se esté o el tiempo no es impedimento para estar conectado. Esto ha traído grandes beneficios que no son ventajosamente del todo, ya que traen consigo riesgos para los usuarios por la comodidad, para las empresas porque pueden ofrecer mejor servicio; pero también, llama la atención de personas que ven un gran y poco explorado mercado, del cual pueden sacar provecho para sus intereses personales o económicos. Los dispositivos móviles están expuestos a un sinnúmero de peligros, al igual que los computadores, y otros equipos que estén conectados a la red. Pero, estar desconectado no te blinda de las amenazas informáticas. [1] Los dispositivos móviles no están aislados de los riesgos digitales, estos están expuestos a los mismos peligros que cualquier otra máquina, de los cuales sus usuarios pueden ser víctima en un momento cualquiera. Algunas de estas amenazas son: malware, spam, phishing, robo o extravío físico del dispositivo. [2][3] Estudios realizados recientemente en España por IAB Spain, da como resultados que el 100% de los encuestados usan teléfono móvil, que otros dispositivos móviles van en aumento, las Tablet (de 23% en el 2012 a 43% en 2013) y los e-reader (se ha mantenido constante en los últimos dos años con el 23%). Cada vez más se ve el uso de smartphone con un 80% del uso total de móviles, los equipos móviles 3G y los básicos van disminuyendo. Una de las razones del aumento de los teléfonos inteligentes es el bajo costo de muchos modelos, smartphone de 70

72 baja gama como se le conocen (un 40% de la cuota de mercado). [4] La tendencia de acceder a internet desde dispositivos móviles está creciendo. En España el 86% de los usuarios se conecta a diario, el 78% se conecta más de una hora a internet, y del total del tiempo dedicado al móvil, el 84% es con conexión. [4] El en mercado de sistemas operativos para dispositivos móviles, Android domina el mercado mundial con el 59.5%, seguido de los sistemas operativos de Apple con un 19.3% [5]. Google afirma que hasta el 2013 hubo 900 millones de dispositivos. [6] El amplio crecimiento de las aplicaciones para este sistema operativo es uno de sus puntos a favor, según Google Inc. son [6] Android sigue siendo la plataforma más popular entre los usuario y también entre los cibercriminales, siendo el principal blanco entre todas las plataformas móviles. Según Kaspersky Security Network, el 99% de las muestras de malware actuales dirigidas a dispositivos móviles se han desarrollado para la plataforma Android. Este laboratorio también aclara que hay dos razones principales por las que los cibercriminales están interesados en Android: popularidad y funcionalidad. [7] Un informe de Symantec sobre plataformas móviles y su seguridad, describe algunos problemas relacionados con Android: Google no tiene un modelo de certificación riguroso de aplicaciones, lo que permitió el creciente volumen se software malicioso. Android brinda mucho control a las aplicaciones sobre las funcionalidades del dispositivo, y deja en manos del usuario la decisión de otorgarla o no los permisos, de esta forma el riesgo es mayor. [8] Computación forense ESTADO DEL ARTE La computación o informática forense es un área que se ha venido desarrollando desde la última década del siglo XX. Esta área es el resultado de una necesidad: obtener una nueva fuente de material probatorio. Las escenas criminales no solo se limitaba a pruebas balísticas, muestras de sangre, sino que también, los elementos electrónicos podrían brindar pistas y ayudar a formalizar una hipótesis y, llevar a resolver un caso judicial. La computación forense (computer forensics) se puede interpretar de dos maneras: «1. Disciplina de las ciencias forenses, que considerando las tareas propias asociadas con la evidencia, procura describir e interpretar la información en los medios informáticos para establecer los hechos y formular las hipótesis relacionadas con el caso; o 2. Como la disciplina científica y especializada que entendiendo los elementos propios de la tecnologías de los equipos de computación forense ofrece un análisis de la información residente en dichos equipos.» [9] Otra definición que puede describir lo que es un análisis forense es: enfoque científico que aprovecha efectos electrómagneticos para «recolectar, analizar, verificar y validar todo tipo de información existente, o información que se considerada como borrada» usando un conjunto de herramientas y técnicas [10]. Esta área, al tener un enfoque científico cuenta con principios que rigen la forma como se debe llevar dicho análisis, para garantizar su veracidad e integridad. Para esta finalidad se creó la IOCE (International Organization of Computer Evidence). Ver Fig. 1. [11][12] Con el aumento del mercado móvil, y la importancia de estos para el manejo de información, también crecerán los ataques, intrusiones y demás peligros informáticos. Por eso en necesario es la implementación de políticas que ayuden a mitigar estos ataques, y en caso tal de que ocurra, poder establecer los hechos relevantes en la investigación. Fig.1: Dominio de Computación Forense [13] 71

73 Se puede encontrar diferentes tipos análisis forenses: análisis forense de sistemas (servidores, estaciones de trabajo), análisis forense de redes (cableadas, wireless, Bluetooth, etcétera) y análisis forense de sistemas embebidos (móviles, PDS, entre otros). [14] La informática forense tiene como objetivo: [15] 1. La compensación de los daños causados por los criminales o intrusos. 2. La persecución y procesamiento judicial de los criminales 3. La creación y aplicación de medidas para prvenir casos criminales. Y para lograr estos objetivos, la principal forma es la recolección de evidencia. [16] El proceso del análisis forense, en sus metodologías tiene en cuenta unas directrices, que han sido el resultado de estudios para garantizar que el proceso sea de calidad y cumpla con un alto grado de integridad y veracidad. Para apoyar lo anteriormente mencionado y, salvaguardando el objetivo principal de la informática forense, que es el de brindar pruebas ante un juzgado se ha creado una principios generales que pueden ser aplicadas en cualquier proceso de informática forense. [9]define estos principios como: 1. Esterilidad de los medios informáticos de trabajo 2. Verificación de las copias en medios informáticos 3. Documentación de los procedimientos, herramientas y resultados sobre los medios informáticos analizados. 4. Mantenimiento de la cadena de custodia de las evidencia digitales 5. Informe y presentación de resultados de los análisis de los medios informáticos. 6. Administración del caso realizado 7. Auditoría de los procedimientos realizados en la investigación. Modelos forenses Desde sus inicios hasta convertirse en una ciencia, la informática forense sido descrita por una serie de modelos que buscan describir este proceso. Estos modelos son similares, varían en cuanto a algunas fases, unos más detallados que otros. Algunos de estos modelos son: modelo Casey (2000) ver Fig. 4, el modelo publicado por el U.S Dep. ofjustice (2001), el modelo Lee (2001), modelo Reith, Carr y Gunsch (2002), Modelo integrado de Brian Carrier y Eugene Spafford (2003) el modelo mejorado propuesto por Venansius Baryamureeba y Flerence Tuchabe (2004) y el modelo extendido de SéamusÓCiardhuáin (2004). [17][18] El modelo de Casey [19] ha evolucionado desde su primera aparición en el 2000, que consta de las siguientes fases: Autorización y preparación Identificación Documentación, Adquisición y Conservación Extracción de información y Análisis Reconstrucción Publicación de conclusiones Fig. 4: Modelo de Casey Fuente: [17] En el 2006, el National Institute of Standards and Technology dio algunas recomendaciones en una guía para la integración de técnicas forenses en respuestas a incidentes. En esta guía, se describe un proceso de cuatro fases: Recopilación de datos, Examinación, Análisis y presentación de informes [20]. Este es un modelo estándar. El detalle de cada fase puede variar dependiendo de la situación específica, de las políticas organizacionales, de gobierno, entre otros. [21] Los análisis forenses sufren variaciones dependiendo a que sistema de cómputo se realice. Existe una clara diferencia entre computadores, laptop, etcétera (informática forense convencional) y los dispositivos móviles, estas diferencias como: arquitectura, funcionamiento del sistema, capacidad de memoria o de almacenamiento. 72

74 En ambos técnicas (convencional y teléfonos móviles) se puede realizar análisis en vivo o caliente y análisis post-mortem. La diferencia radica en que, en un análisis en vivo los dispositivos móviles permanecen activos contantemente, lo que produce que su contenido se actualice constantemente. El reloj del dispositivo altera su contenido en memoria constantemente, imposibilitando una copia completa bit a bit de un teléfono inteligente. [22] También puede haber variaciones en el análisis post-mortem. [23] Anteriormente, se mencionó algunos modelos usados en el análisis forense convencional. [24] Propone un modelo para el proceso de investigación forense en teléfonos inteligentes, que consta de 14 fases, ver Fig. 5: 8. Buscar evidencia almacenada fuera del dispositivo, información en la nube. 9. Análisis de la posición del teléfono (pasada y presente) 10. Preservación de la evidencia 11. Examen de la evidencia 12. Análisis de la evidencia 13. Presentación de los resultados del análisis de la evidencia. 14. Revisión En el proceso de realizar un análisis forense a un dispositivo móvil se presentan algunas situaciones que dificultan dicho proceso. Unas de las situaciones que complica en análisis forense en la heterogeneidad de las características de los dispositivos móviles, ya que sus fabricantes (hardware y software) determinan sus propias características como sistema operativo, diseños de memoria y estructura de almacenamiento que van variando de una marca a otra, y de un modelo a otro. [25][26] Otras características que varía en la diversidad de cables, interfaces y factores de forma. Este variabilidad ha generado que sea difícil manejar una forma general de hacer el análisis, hoy en día, existen paquetes de herramientas con variedad de cables, y otra clase se hardware y diferentes software para realizar dichos análisis. [27] Técnicas antiforenses Fig. 5: Modelo de investigación forense para teléfonos inteligentes Fuente: [24] 1. Preparación 2. Asegurar la escena 3. Documentación de la escena 4. Modo PDA 5. Bloquear comunicación externa 6. Recolección de evidencia volátil 7. Recolección de evidencia no volátil Otro factor que incide en la informática forense, y hacen de esta un área de mucho cuidado son una serie de técnicas que buscan obstruir la labor de los peritos informáticos, las técnicas antiforenses. Para definir qué es una técnica antiforese, [28] propone la siguiente definición: «Cualquier intento exitoso efectuado por un individuo o proceso que impacte de manera negativa la identificación, la disponibilidad, la confiabilidad y la relevancia de la evidencia digital en un proceso forense» se podría resumir en la siguiente frase: «Haz que sea difícil para ellos encontrarte e imposible demostrar que te encontraron» [29] Tradicionalmente las técnicas antiforenses se han clasificado en dos tipos: técnicas antiforense transitoria y las técnicas antiforense definitiva. En la técnica antiforense transitoria, se busca dificultar el analisis con una herramienta o procedimiento 73

75 especifico, pero no lo hace imposible de analizar. Algunos ejemplos son: fuzzing, abuso de los sitemas de ficheros con el fin de crear mal funcionamiento o para explotar vulnerabilidades de las herramientas usadas por el analista.la técnica antiforense difinitiva va más allá, busca arruinar las pruebas por lo que es imposible adquirirlas. Algunos ejemplos son: encriptación y borrado seguro. [30] Existen 4 criterios que determinan la admisibilidad de la evidencia: la autenticidad, la confiabilidad, la completitud o suficiencia, y el apego y respeto por las leyes y reglas del poder judicial. [37][38] Ryan Harris, citado en[31] propone la siguiente clasificación de las téncicas antiforenses: Desctrucción de la evidencia Ocultar la evidencia Eliminación de las fuentes de evidencia Falsificación de la evidencia Algunas de las técnicas que pueden ser usadas en cada fase la clasificación planteada por Harris: Desctrucción de la evidencia: eliminar o limpiar; Ocultar la evidencia: FIST (Filesystem Insertion & Subversion Technique), salck space, estenografía, cifrados y comprimidos y ADS (Alternate Data Streams); Eliminación de las fuentes de evidencia: sam juicer, syscall proxying, rexec, XSH (the exploit shell), Ftrans, booteable live CD & USB; Falsificación de la evidencia: cambiar marcas de tiempo, file carving, colisiones hash, rooted box.[32][33][34] Algunos de los objetivos que se busca alcanzar con el uso de técnicas antiforenses son: limitar la detención de un evento que ya ha ocurrido, distorcionar información residente en el sitio, incrementar tiempo requerido para investigar el caso, generar dudas en informe forense, engañar y limitar la opracion de herramientas forenses, eliminar rastros que pudieron haber quedado luego de los hechos realizados. [35] Evidencia digital La evidencia digital o electrónica es definida por el Instituto Nacional de tecnologías de la Comunicación de España como todos aquellos datos que «de manera digital se encuentran almacenados o fueron transmitidos mediante equipos informáticos y que son recolectados mediante herramientas técnicas especializadas empleadas por un perito en una investigación informática.» Cuya funcionalidad es «servir como prueba física (por encontrarse dentro de un soporte) de carácter intangible (no modificables) en las investigaciones informáticas». Ver Fig. 2. [36] Fig. 2: Ciclo de la evidencia digital Fuente: [39] Unos de los principios que se tienen en cuenta en la ciencia forense, es el principio de Locard, ver Fig. 3.: «Cualquier contacto o presencia deja algún vestigio y se lleva otros»[40] y dicho principio tiene validez en el ámbito informático y las evidencias electrónicas. [41] Por esta razón, en el proceso del manejo de pruebas es recomendable aislar el teléfono móvil de la red. Vigilar no contaminar o perder registros importantes para su posterior análisis. [42] Con respecto a la evidencia electrónica la IOCE define 5 principios que rigen las acciones realizadas por los peritos informáticos. [43] Al manejar evidencia electrónica se debe aplicar todos los principios procedimentales y forenses generales. El proceso para obtener la evidencia no debe modificarla. Quienes accedan a la evidencia digital original debe ser especialistas, entrenados y calificados para dicho propósito. Toda actividad referente a la adquisición, acceso, almacenamiento o transferencia de la evidencia electrónica, debe ser totalmente documentada, almacenada y debe estar disponible para su revisión. Los peritos informáticos son los responsables de las acciones que se lleven a cabo respecto a la evidencia electrónica siempre y cuando esta, esté bajo su cuidado. 74

76 multimedia (imágenes, videos, audio), historial de navegación, registro de chat, cuentas de redes sociales, notas y calendarios, las conexiones (red móvil, wi-fi, Bluetooh), la información con respecto a la localización y el software de dicho dispositivo. [52] Fig.3: Principio de Locard, versión digital. Fuente: [44] También la IOCE menciona una lista de cualidades que se debe en poner en práctica en el peritaje, estos son: objetividad, autenticidad, conservación, legalidad, idoneidad, inalterabilidad y documentación. [43] En la legislación colombiana, le evidencia digital es aceptada. Leyes como la ley 527 de 1999 «por medio de la cual se define y reglamenta el acceso y uso delos mensajes de datos, del comercio electrónico y de las firmas digitales, y se establecen las entidades de certificación y se dictan otras disposiciones» [45] y el decreto 2364 de 2012 «Por medio del cual se reglamenta el artículo 7 de la Ley 527 de 1999, sobre la firma electrónica y se dictan otras disposiciones» [46] dan soporte legal a la evidencia digital. Otra base legal es la resolución No que adopta el Manual de procedimiento del sistema de cadena de custodia para el sistema penal acusatorio. [47] Uno de los obstáculos para la aceptación de la evidencia digital en Colombia es la carencia de normas especializadas destinadas a salvaguardar la cadena de custodia y admisibilidad de la evidencia digital. [48] Aunque en Colombia la evidencia electrónica es aceptada, el delito informático no estaba explícito en el código penal [49], la legislación colombiana dio un paso importante con la Ley 1273 de 2009 «Por medio del cual se modifica el Código Penal, se crea un nuevo bien jurídico tutelado denominado De la Protección de la información y de los datos - y se preservan integralmente los sistemas que utilicen las tecnologías de la información y las comunicaciones, entre otras disposiciones» [50][51] Hablando un poco más de la práctica, la potencial evidencia que se puede encontrar en un dispositivo móvil es: el historial de llamadas, la lista de contactos, mensajes de texto y correos electrónicos, Es importante determinar cómo se ha a recolectar la evidencia, ya que si se hace correctamente, es mucho más fácil aprehender al atacante, y hay mayor probabilidad que la evidencia sea admisible en el caso de un proceso judicial. [53] La evidencia de sebe tomar en orden de volatilidad, de la más volátil a la menos volátil, en ese orden de ideas sería: Registros, caché Tabla de enrutamiento, Caché ARP, tabla de procesos, estadísticas del kernel, memoria Sistema de archivo temporales Disco Registro de datos y la monitorización remota que sea relevante para el sistema en cuestión Configuración física, topología de red Los medios de comunicación de archivos METODOLOGÍA Esta propuesta se guiará de la forma de una investigación descriptiva. Se realizará un estudio de las herramientas forenses para el análisis del dispositivo móvil, escogiendo la más adecuada según qué tan completa sea esta herramienta y su licencia. Además, se planteará una hipótesis, determinando las variables que intervienen en el caso, re recolectará la información, que para este caso es tomar la evidencia de la terminal. Una vez se tenga esta información, se aplicará la metodología para el análisis, se mantendrá la cadena de custodia, y el cuidado en el manejo de la evidencia. Por último, después de haber recolectado la evidencia, preservado, examinado, y analizado se presentará un informe pericial con los resultados obtenidos. Para finalizar, se presentará un artículo donde se describa todo lo realizado en esta investigación. Las actividades pendientes serían: Definir la metodología usada en un análisis forense para un dispositivo móvil. 75

77 Determinar la herramienta a usar para realizar un análisis forense. Describir las herramientas necesarias para establecer un análisis forense y definir la más adecuada para usar en este proyecto. DISCUSIÓN La informática forense es un área de mucha importancia y a su vez de mayor cuidado; para cumplir sus objetivos interactúa con evidencia, que puede ser presentada ante un juzgado para resolver un caso jurídico, o también, cualquier empresa que determine sus servicios para resolver un problema interno. Los autores mencionados anteriormente, coinciden en lo importante que es salvaguardar las leyes, el principio de admisibilidad, la cadena de custodia. Que el conocimiento técnico, el análisis de cómo recolectar la evidencia es fundamental, ya que garantiza en un porcentaje mucho mayor el éxito al presentar los informes correspondientes, y su solidez ante las entidades correspondientes. CONCLUSIONES La informática forense digital móvil es un área interesante y de mucha relevancia en el contexto actual. Con el crecimiento de los peligros informáticos a la par del mercado móvil, se abre un importante camino investigativo y profesional. Android, por su popularidad tanto para clientes y cibercriminales, a la par de las políticas actuales manejadas por Google Inc. es unos de los sistemas operativos móviles más interesante para trabajar. Con la evolución de los dispositivos móviles, la recolección de evidencia se hace más compleja, cada vez habrá más información por analizar, más complejidad en los dispositivos irá creciendo. Está evolución, conlleva a que cada día se confíe más información a dichos dispositivos, lo que crea un mayor interés por dichas terminales. REFERENCIAS [1.] G. E. Jaramillo Cabrera, «Técnicas de análisis forense digital aplicadas a dispositivos y sistemas móviles,» Apuntes de Ciencia y Sociedad, pp , [2.] Eset, «Guía de seguridad para usuarios de smartphone,» [3.] M. Jakobsson y Z. Ramzan, Crimeware. Understanding New attacks and Defenses, Boston: Pearson Education Inc, [4.] Symantec Corp., «Symantec Corp.,» 23 Agosto [En línea]. Available: ease/article.jsp?prid= _01. [5.] Kaspersky Lab., «Kaspersky Lab.,» 8 Octubre [En línea]. Available: [6.] IAB Spain Reseaech, «aib Interactive Advertising Bureau,» Septiembre [En línea]. Available: _Mobile_Marketing_version_corta.pdf. [Último acceso: Ocutbre 2013]. [7.] Canalys, «Canalys,» mayo [En línea]. Available: [Último acceso: Octubre 2013]. [8.] Google Inc., «Andorid,» [En línea]. Available: [Último acceso: Octubre 2013]. [9.] J. J. Cano, «Introducción a la informática forense,» Sistemas, pp , [10.] M. Arias Chavez, «Panorama general de la informática forense y de los delitos informáticos en Costa Rica,» InterSedes: Revista de las sedes regionales., pp , [11.] F. Rodríguez y A. Doménech, «La informática forense: el rastro digital del crimen,» Quadernos de Criminología. Revista de Criminología y Ciencias Forenses, nº 14, pp , [12.] OICE, «www.ioce.org,» 4 Octubre [En línea]. Available: [13.] V. Broucek y P. Turner, «Winning the battles, losing the war? Rethinking methodology for forensic computing research,» Springer- Verlang France, pp. 3-12, [14.] H. Rifà Pous, J. Serra Ruiz y J. L. Rivas 76

78 López, Análisis forense de sistemas informáticos, Barcelona: Eureca Media, SL, [15.] O. López, H. Amaya, R. León y B. Acosta, «CRIPTORED,» Febrero [En línea]. Available: 0b.htm. [16.] Y. Wang, J. Cannady y J. Rosenbluth, «Foundations of computer forensics: A technology for the fight against computer crime,» Elsevier, vol. XXI, nº 2, p , [17.] C. Agualimpia y R. Hernandez, «http://www.unicauca.edu.co/,» [En línea]. Available: culos/articulo_upm- Criptored_Symbian_OS_Forensics_UJaveriana. pdf. [Último acceso: Diciembre 2013]. [18.] L. Santes Galván, «Instituto Politécnico Nacional,» Marzo [En línea]. Available: 6789/3730/1/PROPUESTAMETODFORENSE. pdf. [19.] T. Z. C. &. C. N. Vidas, «Toward a general collection methodology for Android devices,» Journal Elsevier, pp , [20.] J. J. Cano Martínez, «alfa-redi. Derecho y Nuevas Tecnologías,» 9 Septiembre [En línea]. Available: [Último acceso: Diciembre 2013]. [21.] S. Berinato, «http://www.csoonline.com/,» 8 Junio [En línea]. Available: [22.] F. Maggi, S. Zanero y V. Lozzo, «Seeing the invisible. Forensic Uses of Anmaly Detection and Machine Learning,» Newsletter, vol. XLII, nº 3, pp , [23.] A. Botero, I. Camero y J. Cano, «Criptored,» [En línea]. Available: cs/papers/cibsi-dia3-sesion6(3).pdf. [24.] J. Cifuentes Arias, «http://pegasus.javeriana.edu.co,» Diciembre [En línea]. Available: files/antiforensezfs.pdf. [Último acceso: Enero 2014]. [25.] S. Garfinkel, «Cite Seer X,» [En línea]. Available: oi= &rep=rep1&type=pdf. [26.] H. Jahankhani, B. Anastasios y K. Revett, «Digital anti Forensics: Tools and Approaches,» de The 6th European Conference on Information Warfare and Security, Shrivenham, UK, [27.] M. D. Álvarez Galarza y V. A. Guamán Reibán, «Universidad Politécnica Salesiana,» Febrero [En línea]. Available: [Último acceso: 2013]. [28.] INTECO, «Instituto Nacional de Tecnologías de la comunicación,» [En línea]. Available: ervatorio/area_juridica_seguridad/enciclopedia/ Articulos_1/evidencia_electronica_es. [Último acceso: Diciembre 2013]. [29.] G. Zuccardi y J. D. Gutiérrez, «Pontificia Universidad Javeriana,» Noviembre [En línea]. Available: nformatica%20forense/informatica%20forense %20v0.6.pdf. [30.] D. Torres, S. Rueda y J. Cano, «PennState. Department of Computer Science and Engineering,» [En línea]. Available: 4.pdf. [31.] A. Ghosh, [En línea]. Available: uments/apcity/unpan pdf. [32.] J. Alonso, «Instituto científico de criminalística documental,» [En línea]. Available: AVIER.pdf. [33.] J. Pagès López, «Temas avanzados en seguridad y sociedad de la información,» de IX Ciclo de conferencias UPM - TASSI, Madrid, [34.] K. Curran, A. Robinson, S. Peacocke y S. Cassidy, «Mobile phone forensic analysis,» International Journal of Digital Crime and Forensics, vol. II, nº 2, [35.] R. Calzada Pradas, «Análisis Forense de sistemas,» de II Foro de Seguridad RedIRIS, España,

79 [36.] K. J. Aguilar Espinales, «Principios jurídicos aplicables para la valoración de evidencia electrónica en el campo del despido laboral,» H-TICs, vol. I, nº 1. [37.] Congreso de la Republica de Colombia, «Observatorio Colombiano de Ciencia y Tecnología,» 18 Agosto [En línea]. Available: [38.] I. y. T. Ministerio de Comercio, «Presidencia de la República de Colombia,» 22 Noviembre [En línea]. Available: os/2012/documents/noviembre/22/decre TO%202364%20DEL%2022%20DE%20NOVI EMBRE%20DE% pdf. [39.] Fiscalía General de la Nación, «http://richardgorky.com/,» 22 Diciembre [En línea]. Available: n06394.pdf. [40.] A. F. Álvarez Serna, O. D. Marín Rivera y J. D. Victoria Morales, «Framework para la computación forense en Colombia,» Revista Ing. USBMed, vol. III, nº 2, pp , [41.] D. A. Torres, J. J. Cano y S. J. Rueda, «ACIS. Asociación Colombiana de Ingeniería de Sistemas,» 17 Noviembre [En línea]. Available: [42.] Congreso de la República de Colombia, «En TIC confío,» 5 Enero [En línea]. Available: ormatividad/ley_1273_de_2009%20.pdf. [43.] L. M. Santos Jaimes y A. S. Flórez Fuentes, «Metodología para el análisis forense en Linux,» Revista Colombiana de Tecnologías de Avanzada, vol. II, nº 20, pp , [44.] K. Adbulla alghafli, A. Jones y T. Anthony Martin, «Guidelines for the digital forensic processing of smartphones,» Edit cowan University Research Online, [45.] D. Brezinski y T. Killalea, «Guidelines for Evidence Collection and Archiving,» [46.] J. Arquillo Cruz, «Universidad de Jaén,» Septiembre [En línea]. Available: analisis-forense.pdf. [Último acceso: Enero 2014]. [47.] F. J. De León Huertas, «Instituto Politécnico Nacional,» Diciembre [En línea]. Available: /7879/1/2386_tesis_Diciembre_2010_ pdf. [48.] E. Casey, Digital evidence and computer crime. Forensic science, computers and the internet, Academic Press, [49.] K. Kent, S. Chevalier, T. Grance y H. Dang, «Guide to Integrating Forensic Techniques into Incident Response,» National Institute os Standards and Technology, Gaithersburg, EE.UU, [50.] A. E. León Zuluaga, T. Echeverría Jiménez y M. Santander Peláez, «Universidad Pontificia Bolivariana,» [En línea]. Available: (A)_GUIA_METODOLOGICA_PARA_LA_I NVESTIGACION_FORENSE_EN_EL_NAVE GADOR_WEB_GOOGLE_CHROME_gm810g.pdf. [51.] R. Ayers, W. Jansen, N. Cilleros y R. Daniellou, «http://csrc.nist.gov/,» Octubre [En línea]. Available: pdf. [52.] W. Jansen y R. Ayers, «http://csrc.nist.gov,» Mayo [En línea]. Available: [53.] A. Goel, A. Tyagl y A. Agarwal, «Smartphone Forensic Investigation Process Model,» International Journal of Computer Science & Security, vol. VI, nº 5, pp ,

80 Tendencias acerca del Análisis de Datos no Estructurados en Internet, para Sistemas en Tiempo Real, durante los últimos 5 años Manuel R. Rojas Salazar, Investigador Grupo de Investigación GIMI, UPTC, Jorge Enrique Quevedo Reyes, Investigador Grupo de Investigación GIMI, UPTC, Docente: Escuela de Ingeniería de Sistemas, Universidad Pedagógica y Tecnológica de Colombia UPTC Abstract this document shows how Internet information has been taken and how is this approach for value generations. First we talk about information begins to be published, then about how information is to be located, then about tendencies and subscriptions, and thus evolution through social networks, also is this article shows how is data approach process, what is text mining process and big data process. Finally, some topics about ethics are explained for common people. Resumen Este documento muestra cómo la información de Internet se ha tomado, y cómo es su enfoque para generar valor. En primer lugar hablamos de cómo la información comienza a ser publicada, luego de cómo la información es ubicada, a continuación nos enfocamos sobre las tendencias y las suscripciones, para ver finalmente la evolución a través de las redes sociales; también este artículo muestra cómo se enfoca el proceso de datos, cuál es el proceso de minería de texto y análisis Big data. Por último, tenemos en cuenta algunos temas acerca de la ética se explican por la gente común. Palabras-clave; minería de texto; minería de datos; internet; hadoop; ética, big data. Keywords-component; text miming; datamining; internet; hadoop; ethics, big data. I. INTRODUCCIÓN INTERNET es mundialmente conocida como la red de redes, es difícil imaginar la magnitud de la información almacenada en ella; sin embargo en los últimos años, su evolución ha llevado a las empresas a prestar mayor atención a la información consignada en Internet, con el propósito de hacer mejores negocios y hacer predicciones acerca del comportamiento de un mercado. También es posible conocer los gustos de una población o resaltar características especiales acerca de tendencias o comportamientos. En el análisis de datos y minería de datos es importante conocer y resaltar las tendencias; ahora las empresas se enfocan en presentar resultados en tiempo real y en obtener información de la mayor cantidad de fuentes disponible. Esta revisión hace un recorrido a través de los orígenes de la información en internet, la forma en que ha evolucionado y como es presentada al usuario. Luego se presenta la forma en cómo los datos son extraídos de internet y cómo funcionan las tecnologías para hacer uso de ellos. Finalmente se ponen a consideración algunos temas que hacen referencia al uso ético de estos datos y el riesgo para la privacidad de la población, con sus respectivas consideraciones. 79

81 II. MARCO CONCEPTUAL A. Orígenes del procesamiento de información. Durante los años 90, la forma de recibir la opinión de las personas era a través de los artículos que se publican en internet en sitios personales o en columnas de información. Con el paso del tiempo, la red de redes, se encargó de masificar las opiniones de los internautas con la creación de espacios más populares y de libre acceso que conocemos como blogs. Los blogs dieron origen a los canales de RSS, y la gente se pudo suscribir a esos canales de información[1]. En el otro lado de los acontecimientos, la gente se empezó a conectar por portales que se denominaron redes sociales; Myspace, tagged, hifive entre otras sirvieron para enlazar a conocidos a través de actividades en común[2]. Luego, se evolucionó a redes sociales que permiten el acceso a aplicaciones, a estados y a comunicación a través de opiniones, como lo son facebook, twitter, identi.ca o Google+[3]. Alrededor de estas redes sociales, internet evolucionó, conectando servicios a través de diferentes API y fusionando toda esta información; Joyanes califica a éste fenómeno como la convergencia digital[1]. Todo este conjunto de datos se usa de diferentes maneras, son la nueva tendencia en nuestro mundo corporativo y miden diferentes aspectos según involucren sus negocios[4], ellos pueden ir desde valores sencillos como por ejemplo la penetración de las redes sociales en un país, como también, para ser centro de noticias y medición de popularidad, en eventos de política, o retroalimentación de usuarios a través de medios guiados como TV o radio. Adicionalmente toda esta convergencia funciona con múltiples propósitos: pueden ir desde un sistema de single sign on (autenticación de usuario con una sola contraseña), hasta un nuevo lugar para vitrina de nuestros negocios con costos de publicidad llegando a cero[5]. Como resultado de la necesidad de analizar toda esta información, surgen varios enfoques para rescatar y analizar la información que se presenta en la red[6]. El primero de ellos, se recoge a principios de los 80, con el concepto llamado motor de búsqueda[7]. El motor de búsqueda es una base de datos con metadatos indexada de manera que es capaz de relacionar ciertas palabras con una dirección web. Estos motores son los responsables que internet sea la telaraña mundial de la información, sin los motores de búsqueda, simplemente el internauta (usuario de internet), no sabría qué información obtener de la red. Con el refinamiento de las búsquedas en internet, y con la meta de mejorar la precisión, se fueron desarrollando los buscadores semánticos, su objetivo es relacionar es el contexto de las palabras, su meta es informar de una manera más acertada aquellos datos que se requieren a partir del tema buscado por el internauta. B. Minería de Texto Como consecuencia de las búsquedas contextuales, la gente en internet se dio cuenta de lo interactiva que puede ser la red, se pasan de búsquedas a conversaciones y en el afán de mejorar la experiencia del usuario, se especializa el análisis y el contexto de las búsquedas, con ello se da origen a la minería de texto. Se considera que la minería de texto es el descubrimiento por computador de información previamente no encontrada, por intermedio de extracción automática[8]. Usualmente esta información la encontramos en diferentes formas[9], por lo general en cantidades gigantescas, con orígenes en textos de manera no estructurada (sin ningún tipo de orden lógico, o simplemente no almacenada en base de datos alguna)[10]. Esto implica descubrir información realmente nueva. Como un ejemplo podemos citar la diferencia entre un detective siguiendo las pistas para encontrar un criminal, vs. el análisis revisando las estadísticas en términos generales del robo de vehículos. Que los hace no estructurados? Con el término datos no estructurados, queremos resaltar su naturaleza de origen, como lo es la ocurrencia en un texto cualquiera, es justamente aquello opuesto a HTML, XML... entre otros[11]. Revisando a la minería de texto contra la computación lingüística y el procesamiento de lenguaje natural; encontramos una extrapolación de minería de datos en datos numéricos; la minería de datos desde colecciones de textos[10]. Programación Lingüística computa estadísticamente textos en colecciones de lenguajes en función de descubrir patrones funcionales las cuales son usadas para los algoritmos de información para varios subproblemas con Programación Lingüística[12]. Un ejemplo 80

82 de esto en la identificación de partes de un discurso, y la desambiguación en el sentido de las palabras, junto con la cantidad de repeticiones y medidas que se puedan obtener en estos[13][14]. De esta manera surge la revisión de las características del texto. Las personas tienen muchas formas de expresarse en la red. La dependencia de palabras y frases crean un contexto diferente para cada una[15]. Se debe considerar también que las palabras tienen la característica de la ambigüedad, en otras palabras, la sentencia de ambigüedad, tiene es muchas veces como resultado datos ruidosos y errados [8]. Luego de todo el tratamiento y clasificación de esta información; procedemos a la limpieza y generación de tags a partir del texto encontrado[16]. Se puede realizar esto de dos formas una es un análisis completo semántico y otro una fragmentación parcial del texto, teniendo que cuenta que la fragmentación parcial es menos sensible a errores y salidas totales de contexto, por el afinamiento que resta requiere en el análisis de cada oración [15]. C. Big Data Como consecuencia del crecimiento de internet, su masificación y el número de datos que ahora es publicado en la misma, se encontró que toda esta información no necesariamente podía ser aprovechado por los motores de búsqueda para indexar la red en los usos tradicionales; es allí donde nace un nuevo concepto adicional al conocimiento web como un lugar para obtener información de la cultura en general, este nuevo componente mide los niveles de satisfacción y aceptación a productos o elementos que nos rodean, este movimiento se le conoce como Big Data[17]. Algunas fuentes resaltan el hecho que Big Data suele ser confundido con los de resultados del concepto de big data en el almacenamiento de datos[18]. Se dice que el término Big Data tiene sus orígenes en comunidades de código abierto, son el resultado de un esfuerzo para desarrollar un proceso analítico el cual es rápido y más escalable que el tradicional datawarehousing, y son capaces de obtener valores de cientos de datos no estructurados producidos a diario por los usuarios de internet[18]. El Almacenamiento Big Data está relacionado con el direccionamiento de una gran cantidad de datos no estructurados a nivel empresarial[19]. Pero es necesario el uso de tecnologías para apoyar este gran almacenamiento de datos como son las escalables NAS(del inglés Network Attached Storage) y almacenamientos orientados a objetos. Son tecnologías ya desarrolladas y que son bien conocidas para la sociedad de TI en general[20]. A diferencia de Big Data, sin embargo su crecimiento ha sido rápido, y con herramientas enfocadas a la web, que bien es considerada como una nueva unidad de negocio para las empresas[18]. Big Data desarrolla rápidamente en diferentes áreas con características comunes entre ellas, sin embargo los problemas son similares para estas áreas, tenemos por ejemplo: la percepción que los procesos tradicionales de almacenamiento de datos son demasiado lentos y limitados en términos de escalabilidad[21]; también se aborda la novedosa capacidad de converger datos provenientes de múltiples fuentes de datos; entre estos encontramos, tanto estructurados, como datos no estructurados[22], ahora se tiene que tener en cuenta que la información debe ser comprendida en el menor tiempo posible para extraer datos con mayor valor, para finalizar entre las fuentes de datos en se incluyen: los dispositivos móviles, RFID(identificación por radiofrecuencia), la web y una lista cada vez mayor de tecnologías automatizadas sensoriales[18][23]. También sobresalen cuatro segmentos dentro del desarrollo que subrayan la diversidad en que se encuentra Big Data. Estos segmentos son MapReduce, la base de datos escalable, el procesamiento en tiempo real datos y los grandes appliance. Apache Hadoop MapReduce es un buen lugar para comenzar con el segmento MapReduce[24]. Hadoop conceptualmente comenzó con un documento con origen en Google en el 2004 y se describe como un proceso para la paralelización del procesamiento de datos basado en la Web que llamó MapReduce. Poco después, Apache Hadoop nació como una implementación de código abierto del proceso MapReduce[25]. La comunidad que lo rodea está creciendo dramáticamente y la producción de complementos que se expande usabilidad Apache Hadoop dentro de los centros de datos corporativos[18]. Los datos estructurados también están creciendo y siendo el foco de muchos desarrollos. NoSQL tiene una comunidad abierta que le rodea y crece rápidamente, esta base de datos no relacional, distribuida y escalable horizontalmente, contiene las estructuras de base de datos para abordar la necesidad de una base de datos web a la escala del diseño 81

83 para los sitios web de alto tráfico y medios de transmisión orientados a documentos disponibles, también dentro del segmento de bases de datos NoSQL se incluyen implementaciones de MongoDB (como en "humongous" DB) y Terrastore[26][27]. StreamSQL es la capacidad de realizar análisis de múltiples flujos de datos utilizando máquinas e incluso tecnologías separadas. StreamSQL ha estado disponible desde Hasta ahora, StreamSQL sólo ha sido capaz de penetrar en algunos nichos de mercado relativamente pequeños, como son la vigilancia de los servicios financieros, las telecomunicaciones y las zonas de la red de monitoreo[28]. Sin embargo, con el creciente interés en todas las temas de big data, StreamSQL está obligado a mayor protagonismo y encontrar más oportunidades de mercado[29]. StreamSQL es el resultado de un área de investigación computacional llamado procesamiento de eventos complejos (CEP), una tecnología de procesamiento de baja latencia de datos de eventos del mundo real. Tanto IBM, con InfoSphere Streams y StreamBase Systems Inc. tiene productos en esta área[27]. Los Appliance de Big Data tanto como el interés en Big Data Analytics se expande en centros de datos empresariales, la comunidad de proveedores ven en ellos la oportunidad para reunir Appliance de Big Data. Estos aparatos funcionarían para tareas como integrar servidores, redes y equipos de almacenamiento en un solo recinto y ejecutar software de análisis que acelera la entrega de información a los usuarios. Estos aparatos están destinados a compradores de la empresa que valoran la facilidad de implementación y las características inherentes de uso en aparatos Big Data. Empresas como Greenplum, IBM / Netezza, Oracle y Teradata apuestan por brindar soluciones de este tipo y asesorar a los clientes con productos y servicios que cumplan las expectativas de sus clientes. Los practicantes de grandes procesos de análisis de datos son generalmente reacios al almacenamiento compartido. Prefieren desde SSD (discos de estado sólido) de alta capacidad de disco SATA enterrado dentro de los nodos de procesamiento paralelo. Las arquitecturas de almacenamiento, tales como SAN y NAS, típicamente se percibe como relativamente lenta, compleja y sobre todo caras. Estas cualidades no son consistentes con grandes sistemas de análisis de datos, que prosperan en el rendimiento del sistema, la infraestructura de los productos básicos y de bajo costo. Los desarrolladores de la tecnología de almacenamiento de datos se están alejando de expresar almacenamiento como un dispositivo físico y hacia la aplicación de almacenamiento como una entidad más virtual y abstracta. Como resultado, el entorno de almacenamiento compartido puede y debe ser visto por los profesionales de Big Data como uno en el que pueden encontrar los servicios de datos potencialmente valiosos, tales como: protección de datos y la disponibilidad de los sistemas basados en almacenamiento: funciones de copia que no requieren reposo base de datos puede crear copias reiniciables de datos para recuperarse de los fallos del sistema y sucesos de corrupción de datos. Reducción del tiempo de despliegue de nuevas aplicaciones y procesos automatizados: la agilidad de negocios se incrementa cuando las nuevas aplicaciones se puede conectar rápidamente con la construcción en torno a las copias de datos reutilizables. Gestión del cambio: el almacenamiento compartido potencialmente puede reducir el impacto de los cambios y mejoras necesarios en el entorno de producción en línea, ayudando a preservar un "always-on" capacidad. Del ciclo de vida de gestión: La evolución de los sistemas se hace más manejable y aplicaciones obsoletas son más fáciles de descartar al almacenamiento compartido puede servir como la base de datos de registro. Ahorro de costes: El uso de almacenamiento compartido como complemento de la DAS (Direct Attached Storage) en una arquitectura de no compartición reduce el coste y la complejidad de los nodos de procesador. Big Data warehousing es un gran negocio de datos tradicional; es un gran productor, pero relativamente lento de la información a los usuarios de análisis de negocios. Se basa en datos limitados recursos y depende de extracto reiterativo, transformación y carga (ETL). Los clientes están buscando para un rápido acceso a la información que se basa en el sacrificio pepitas de múltiples fuentes de datos al mismo tiempo. Análisis de datos grandes puede ser definido, en cierta medida, en relación a la necesidad de analizar grandes conjuntos de datos de múltiples fuentes, y para producir la información en tiempo real o casi en tiempo real. Gran análisis de datos representa una gran oportunidad. Las organizaciones de IT(Information Technology) están explorando las tecnologías de análisis descrito anteriormente para analizar basadas en la Web de fuentes de datos y extraer valor del auge de las redes sociales. Sin embargo, una oportunidad aún más 82

84 grande - la Internet de los objetos - se está convirtiendo en una fuente de datos. Aprovechar el poder de múltiples fuentes de datos, tales como la Internet de los objetos será acerca de las tecnologías que van mucho más allá de almacenamiento de datos tradicional. Se requieren procesos que imitan la forma en que funciona el cerebro humano. Nuestros cerebros toman en las corrientes masivas de datos sensoriales y hacer las correlaciones necesarias que nos permiten saber dónde estamos, lo que estamos haciendo, y en última instancia lo que estás pensando - todo en tiempo real. D. NoSQL y Big Data Si bien puede llevar a algunos a creer que los que están detrás del esfuerzo son anti-sql(por sus siglas en inglés structured query language), la verdad es que muchos creen que es más exacto referirse a NoSQL como "no-relacional." Muchos analistas de la industria consideran que no se trata de la eliminación de SQL desde la base de datos, sino más bien aumentar la escalabilidad del sistema. Almacenes de datos NoSQL también están preocupados con el almacenamiento y acceso a los datos que pueden ser no estructurada o semiestructurada, orientada a documentos, y / o contiene complejas relaciones múltiples[30]. Una ventaja de estas soluciones es que permiten esquema para la tolerancia, lo que significa que no necesariamente tienen que ajustarse a un esquema predefinido cuando se carga o análisis de los datos. Si un atributo no existe como parte de la tupla, entonces simplemente no se almacena[31]. Hoy en día por un número creciente de organizaciones en la red usan ciertos tipos de datos y cargas de trabajo, que utilizan estas tecnologías[32]. Compañías como Yahoo y Facebook, que han sido líderes en código abierto, los proyectos NoSQL también aprovechan para bases de datos relacionales estructurados y ad hoc, que se enfrentan los usuarios de Google Analytics[33]. Como la mayoría de lo que encontramos en el mundo BI, no hay una talla única para todos ya que las cargas de trabajo analíticas solución tienden a variar dependiendo del tipo de análisis de datos, y los datos de los volúmenes involucrados. No hay duda de que los volúmenes de datos están aumentando, más semi-estructurados y no estructurados de datos se están analizando, y los requisitos analíticos están cambiando más rápido que nunca. Nuestra capacidad para cumplir con estos requisitos está alterando la forma en que nos acercamos a la solución. Una nueva generación de almacenamiento de datos y soluciones de recuperación ha sido desarrollado para que las opciones de añadir arquitecturas de almacenamiento de datos. Las organizaciones deben evaluar sus necesidades de análisis de datos, cargas de trabajo, la voluntad de implementar software relativamente inmaduro y conjuntos de habilidades disponibles para apoyar estas soluciones[34]. Si bien las soluciones no relacionales pueden proporcionar máxima escalabilidad y flexibilidad para las organizaciones que luchan contra grandes desafíos de datos, no son un unotamaño-cabertoda la solución. Es un tema de cambio de paradigma; hoy es necesario desconectarse de los aprovisionamientos clásicos de infraestructura, como compras de servidores, y almacenamiento estándar, a nuevos escenarios donde el almacenamiento en la red se compra por demanda en soluciones en la nube. E. Big Data y Ética En agosto de 2011, Facebook recibió críticas cuando se pensaba que la exposición de los nombres y números de teléfono de cada uno de los contactos en los dispositivos móviles que utilizan el "Contactos" característica de la aplicación móvil de Facebook. Por qué no la aclaración y el método previsto en unión con la liberación de la característica en el primer lugar? En 2011, cuando el CEO(Chief executive officer) de GoDaddy publicado un tweet acerca de matar a los elefantes en África y apoyó públicamente la polémica parada Online Piracy Act (SOPA), la respuesta de los clientes negativo resultó en el registro de dominios según se informa perdiendo decenas de miles de clientes[35]. Como es probable teniendo en cuenta cómo su organización podría responder en situaciones similares, considere el hecho de que todos estos ejemplos comparten un factor común: la gran tecnología de datos. Como muestran estos ejemplos, un impacto de grandes volúmenes de datos es que las acciones tienen consecuencias mucho mayores consecuencias, a un 83

85 ritmo más acelerado, y las repercusiones directas para la calidad de la marca de una empresa, relaciones con los clientes y los ingresos[36]. Como resultado, los grandes datos están obligando a nuevas consideraciones sobre estafadores nuestros valores y conductuales, especialmente ya que da a más personas más formas de participar, comunicar e interactuar. La enorme cantidad de información que se genera, es tan rápida que el fenómeno de Big Data empieza a plantear cuestionamientos de tipo éticos. Como Brad Peters escribió recientemente en Forbes, literalmente "cambia el contrato social"[37]. La naturaleza de ese cambio es compleja. Una motivación principal de este trabajo es abordar tanto los individuos como las organizaciones y sugieren que la discusión más explícita y transparente es necesario, un debate que inherentemente contiene componentes éticos. La Identidad Cuál es la relación entre nuestra identidad en línea y nuestra identidad en línea? Privacidad Quién debe controlar el acceso a los datos? Quién posee la propiedad de datos, puede que los derechos a ser transferidos, y cuáles son las obligaciones de las personas que generan y utilizan esos datos? Reputación Cómo podemos determinar qué datos son confiables? Ya sea sobre nosotros mismos, los demás, o cualquier otra cosa, grandes datos aumenta exponencialmente la cantidad de información y formas en que podemos interactuar con él. Este fenómeno aumenta la complejidad del hombre envejecido cómo se nos percibe y juzga. Independientemente de su papel en una organización, o si incluso trabajar en la tecnología, la vida de casi todo el mundo está conmovido por la gran tecnología de datos en la actualidad. Lo que significa que este marco tiene el potencial para informar tanto a los beneficios grandes volúmenes de datos ofrece y los riesgos potenciales de consecuencias no deseadas para un número verdaderamente impresionante de gente. Comercializadores digitales han luchado con esto durante años. Pero el riesgo de consecuencias imprevistas consecuencias como datos grandes evoluciona se hace más generalizada, más allá del mercado objetivo. Considere cómo Google filtra su comprensión de las preferencias de su contenido si usted comparte el mismo tiempo en el mismo equipo con una o más personas en su hogar. Mi interés en lugares de vacaciones de playa es mucho menos relevante a alguien con quien pueda compartir mi conexión a Internet que tiene miedo al mar y no sabe nadar. El riesgo es que si bien existe un valor y beneficio a las innovaciones de la salud que utilizan la tecnología, la relación entre el mundo real de las tecnologías de Internet utilizada y las personas que se benefician de ellos no se entiende lo suficiente. El volumen, variedad y velocidad de la información disponible aumenta exponencialmente la complejidad de la información que las empresas necesitan para administrar, y estos factores generan preguntas que no han trabajado antes en el curso de los negocios Según Ethics and Big Data balancing for Innovation[35], para 2025, la previsión es que Internet superará la capacidad del cerebro de todos los que viven en todo el planeta. Toda esta información es capaz de mostrar quien la sepa manejar las tendencias de comunidades y negocios con resultados altamente productivos. III. EXTRACCIÓN DE INFORMACIÓN EN ENTORNOS ESTRUCTURADOS Y NO ESTRUCTURADOS EN LA ACTUALIDAD La extracción de información hoy por hoy, no solo está limitada a las páginas web o a los portales de redes sociales; los dispositivos ahora móviles juegan un papel protagónico en este tipo de análisis. Esto se debe a las características de ellos, entro otras tenemos permitir alimentar la ubicación exacta de su usuario, a través de GPS (Sistema de Posicionamiento Global por su sigla en inglés) y/o triangulación de señal, a servicios de Internet, e incluso, opiniones en tiempo real a través de redes sociales conectadas al dispositivo; estas entre otras, le hacen una fuente demasiado valiosa para el procesamiento de información. Adicionalmente, la variedad de fuentes y tipos de datos que se generan se expande tan rápido como la tecnología nueva puede ser creada. Métricas de rendimiento de los monitores en el automóvil, fabricación de pisos, afinamientos, mediciones de rendimiento, todo tipo de dispositivos sanitarios, y el creciente número de dispositivos inteligentes de red de energía, generan datos. 84

86 Las fuentes sensoriales cada día van en aumento, las tecnologías que integran toda la información de las personas hoy en día se están concentrando en los dispositivos móviles[1] con tecnologías como RFID (siglas de Radio Frequency IDentification, en español identificación por radiofrecuencia), o el uso de otras como los GPS, que permiten hacer un refinamiento del comportamiento de las poblaciones. Ahora cobra una mayor importancia el hecho de generar datos a un ritmo rápido. La velocidad de generación de datos, la adquisición, el procesamiento y la salida aumenta exponencialmente a medida que el número de fuentes y la variedad cada vez más amplia de formatos crece con el tiempo. En general, se informa que el 90% de los datos del mundo ha sido creado en los últimos dos años[35]. Así, mientras los innovadores de negocios están entusiasmados con los beneficios potenciales que se pueden crear desde el diseño y desarrollo de una amplia gama de nuevos productos y servicios basados en tecnologías de datos grandes, el tamaño, variedad y velocidad de la información disponible plantea nuevas preguntas[38]. El concepto es útil comprender cómo la persistencia de grandes volúmenes de datos influye en las características fundamentales y esenciales de las vidas individuales [15]. Big data a menudo incluye "metadatos", que puede añadir otra capa (o varias capas) de la información sobre cada uno de nosotros como individuos en los hechos físicos de nuestra existencia. Para precisar sobre la importancia que toma toda esta información sobre la red; Cisco Systems Inc. estima que hay aproximadamente 35 millones de dispositivos electrónicos que se conectan a Internet[2]. Cualquier dispositivo electrónico puede estar conectado (de forma cableada o inalámbrica) a Internet, e incluso los fabricantes de automóviles están construyendo conectividad a Internet en vehículos. Los coches "En línea" son una realidad en el 2012 y genera millones de secuencias de datos transitorios. De hecho, sin ir más lejos, equipos móviles como las tablets ya se están encargando de esta tarea. El uso efectivo de Big Data, es un hecho en empresas como Cloudera, Google, Amazon, Microsoft, salesforce.com, Verizon entre otras[19]. Uno de los más asombrosos casos de éxito vistos recientemente se han vivido a través de Twitter; estos casos tratan acerca de cómo la información fluye desde entornos no estructurados. Twitter como herramienta para la generación y recolección de información es muy poderosa. En estudios recientes, se ha demostrado que es capaz de seguir las tendencias respecto del análisis de alergias en los estados unidos[39] [40]; El impacto de toda este cumulo de información a nivel de salud tiene una convergencia sin precedentes en el estudio de la medicina y epidemiología actual, es como si una gigantesca base de datos de todo el mundo ahora está a disposición de las personas[41]. De igual manera, en las elecciones de Estados Unidos, Twitter sirvió como un termómetro sin precedentes para conocer las tendencias de los ciudadanos estadounidenses a la hora de ir a las urnas[42]. En adelante, la tendencia indica como necesario estudiar el proceso del desarrollo en el análisis de esta información y la evolución de estas herramientas. Hadoop es la pieza clave en la implementación de Big Data; las herramientas que trae consigo, permiten una sencilla integración y un aprovechamiento adecuado de todo lo que debe hacerse[43]. Sin embargo, como en los procesos de software, es importante que la extracción e implementación de Big Data, sea el resultado de un bien estudiado y estructurado proceso, donde se han definido métricas, se han planteado objetivos y una ruta de hacia dónde se quiere ir[44]. En muchos casos, se citan a estos como los principales componentes para sacar jugo al proceso de Big Data al interior de la empresa. IV. DESCRIPCIÓN DE LA POBLEMÁTICA El uso de tecnologías como datamining y Big Data en la actualidad persigue generar indicadores de todo tipo de información alrededor del mundo. Las comunidades en este momento deben ser evaluadas por lo que piensan, lo que hacen y en términos generales por su comportamiento en el día a día[45]. Esta información presente alrededor del mundo, se ha masificado como temas de opinión al interior de redes sociales, donde las personas, tienen la tendencia a publicar sus opiniones, alegrías y /o frustraciones[40] [46]. 85

87 Es importante desde este punto de vista conocer a fondo el manejo de esta gigantesca fuente de datos, procesos como la extracción, el refinamiento y su clasificación cobran vital importancia, ante el reto que significa sacar el mejor partido para la empresa. Las grandes empresas de TI a nivel mundial han apostado no solo al descubrimiento de tendencias de los clientes, sino también a modelos que hagan eficiente su ambiente de negocios, los campos de aplicación se ven por ejemplo en la mejora del proceso de helpdesk, o la selección de los mejores proveedores, lo que se ve traducido en mejorar la cadena de valor y transformación tecnológica al interior de la empresa[47]. Las campañas de ventas y marketing también están llamadas a aprovechar este tipo de información[48]. De igual manera, la Universidad no está exenta en la tarea de generar indicadores acerca de temas precisos que puedan medir temas tan importantes como la satisfacción de los estudiantes con las materias que están cursando, con un profesor o alguna actividad al interior de la Universidad. Para nadie es un secreto que muchas veces en las encuestas de satisfacción al interior de la Universidad, el estudiante, docente o trabajador, responde información de manera no consciente y hasta el punto de prestar poca atención a lo que se está evaluando[49]. Se propone con este trabajo aprovechar las opiniones alrededor de la universidad, generando nueva información que permita desde un enfoque gerencial mejorar aspectos en los que se puedan encontrar opciones de cambio o insatisfacción alrededor de la comunidad de la Universidad[50]. Para ello se plantea hacer una revisión alrededor de las tecnologías para la extracción de información, considerar medios estructurados y no estructurados para introducirlos al interior de este estudio, y generar información acerca de la percepción de las comunidades cercanas a la universidad desde las redes sociales, con el fin de generar indicadores que puedan ser retroalimentados con el paso del tiempo[51]. V. CONCLUSIONES 1) Big data es la tecnología que este momento manda la parada para obtener información acerca de la comunidad en tiempo real 2) El proceso de extracción de datos, a partir de entornos no estructurados requiere de un afinamiento particular con el fin de evitar que términos ambiguos se conviertan en ruido para la información deseada. 3) El proceso de Text mining es parte fundamental dentro de los procedimientos de minería de texto y Big Data, a pesar que parece un proceso relativamente pequeño su importancia en la depuración de información toma un papel determinante para el éxito en la búsqueda de la información 4) Los dispositivos móviles juegan un papel fundamental en el despliegue de estas tecnologías, por su cercanía y poder de interacción se consideran las principales fuentes de información en el mediano y largo plazo 5) Los appliances de Big Data(máquinas con soluciones de Big Data corriendo dentro de ellas), son una unidad de negocio que en el futuro cercano va a cambiar la forma en la que se hace datawarehaousing. A diferencia del DatawareHousing, Big Data permite introducir datos en tiempo real, siendo una tecnología que complemente los estudios clásicos sobre la inteligencia de negocios. 6) La evolución de Haddop juega un papel fundamental en el nuevo esquema de procesamiento de información, para los análisis en entornos distribuidos y con múltiples fuentes, hoy en día las empresas grandes empresas de TI hacen fuertes apuestas por la creación de soluciones que se complementan alrededor del núcleo que establece Hadoop. 7) La comunidad de código abierto es clave en la evolución de estas tecnologías. Es claro que este movimiento nace primero en proyectos que evolucionan y se certifican con soporte especializado en las grandes empresas, pero que a pesar de adoptar y cerrar sus implementaciones, vuelven a la fuente para proponer mejoras y solucionar fallos. REFERENCIAS BIBLIOGRÁFICAS [1] J. K. Laurila, D. Gatica-Perez, I. Aad, J. Blom, O. Bornet, T. M. T. Do, O. Dousse, J. Eberle, and M. Miettinen, The mobile data challenge: Big data for mobile computing research, in Mobile Data Challenge by Nokia Workshop, in conjunction with Int. Conf. on Pervasive Computing, Newcastle, UK,

88 [2] B. Franks, Taming The Big Data Tidal Wave: Finding Opportunities in Huge Data Streams with Advanced Analytics. Wiley, [3] M. Russell, Mining the Social Web: Analyzing Data from Facebook, Twitter, LinkedIn, and Other Social Media Sites. O Reilly Media, Incorporated, [4] C. M. Fuller, D. P. Biros, and D. Delen, An investigation of data and text mining methods for real world deception detection, Expert Systems with Applications, vol. 38, no. 7, pp , Jul [5] D. R. Herrick, Google this! Using Google apps for collaboration and productivity, in SIGUCCS 09 - Proceedings of the 2009 ACM SIGUCCS Fall Conference, 2009, pp [6] C. F. Cheung, W. B. Lee, W. M. Wang, Y. Wang, and W. M. Yeung, A multi-faceted and automatic knowledge elicitation system (MAKES) for managing unstructured information, Expert Systems with Applications, vol. 38, no. 5, pp , May [7] R. Gopal, J. R. Marsden, and J. Vanthienen, Information mining Reflections on recent advancements and the road ahead in data, text, and media mining, Decision Support Systems, vol. 51, no. 4, pp , Nov [8] R. Feldman and J. Sanger, The Text Mining Handbook: Advanced Approaches in Analyzing Unstructured Data. Cambridge University Press, [9] K. R. Larsen, D. E. Monarchi, D. S. Hovorka, and C. N. Bailey, Analyzing unstructured text data: Using latent categorization to identify intellectual communities in information systems, Decision Support Systems, vol. 45, no. 4, pp , Nov [10] M. Hearst A., Untangling Text Data Minig. School of Information Management & Systems, [11] J. H. Suh, C. H. Park, and S. H. Jeon, Applying text and data mining techniques to forecasting the trend of petitions filed to e-people, Expert Systems with Applications, vol. 37, no. 10, pp , Oct [12] N. Ur-Rahman and J. A. Harding, Textual data mining for industrial knowledge management and text classification: A business oriented approach, Expert Systems with Applications, vol. 39, no. 5, pp , Abril [13] J. Divya and S. Kusuma, Text Clustering for web documewnts Using Concept - Based Minig Model, International Journal of Emerging trends in Engineering and development, vol. 1.6, no. 2, Sep [14] L. Soibelman, J. Wu, C. Caldas, I. Brilakis, and K.-Y. Lin, Management and analysis of unstructured construction data types, Advanced Engineering Informatics, vol. 22, no. 1, pp , Enero [15] S. Le and T. Ho, Measuring the similarity for heterogeneus data: an ordered Probability - Based Approach, Discovery Science, vol. 2354, pp , [16] J. Han and M. Kamber, Data Mining: Concepts and Techniques. Elsevier Science & Tech, [17] O. R. Team, Big Data Now: Current Perspectives from O Reilly Radar: Current Perspectives from O Reilly Radar. O Reilly Media, [18] Paul C. Zikopoulus, Chris Eaton, Dirk deross, Tomas Deutsch, and George Lapis, Understanding Big Data Analytics for Enterprise Class Hadoop and streaming data.. [19] S. Lavalle, E. Lesser, R. Shockley, M. Hopkins, and N. Kruschwits, Big Data, Analytics and the Path From Insights to Value, Winter, p. 13, [20] C. Tankard, Big data security, Network Security, vol. 2012, no. 7, pp. 5 8, Jul [21] M. Minelli, M. Chambers, and A. Dhiraj, Big Data, Big Analytics: Emerging Business Intelligence and Analytic Trends for Today s Businesses. Wiley, [22] V. Gopalkrishnan, D. Steier, H. Lewis, and J. Guszcza, Big data, big business: bridging the gap, in Proceedings of the 1st International Workshop on Big Data, Streams and Heterogeneous Source Mining: Algorithms, Systems, Programming Models and Applications, Beijing, China, 2012, pp [23] K. Roebuck, Big Data: High-Impact Strategies - What You Need to Know: Definitions, Adoptions, Impact, Benefits, Maturity, Vendors. Emereo Pty Limited, [24] M. G. Kahn and C. Weng, Clinical research informatics: a conceptual perspective, Journal of the American Medical Informatics Association, vol. 19, no. e1, pp. e36 e42, [25] H. Yang and S. Fong, Incrementally optimized decision tree for noisy big data, in Proceedings of the 1st International Workshop on Big Data, Streams and Heterogeneous Source Mining: Algorithms, Systems, Programming Models and Applications, Beijing, China, 2012, pp [26] K. Bakshi, Considerations for big data: Architecture and approach, Aerospace Conference, 2012 IEEE, pp. 1 7, 3. [27] E. Dumbill, Planning for Big Data. O Reilly Media,

89 [28] Mining Unstructured Data_ Practical Applications Presentation.pdf. [Online]. Available: d%20data _%20Practical%20Applications%20Presentation.pdf. [Accessed: 08Nov-2012]. [29] H. Hromic and J. Atkinson, Stochastic web-based natural language dialog planning for web information filtering, Expert Systems with Applications, vol. 39, no. 10, pp , Agosto [30] E. Stubbs, The Value of Business Analytics: Identifying the Path to Profitability. Wiley, [31] K. Roebuck, Storing and Managing Big Data - Nosql, Hadoop and More: High-Impact Strategies - What You Need to Know: Definitions, Adoptions, Impact, Benefits, Maturity, Vendors. Emereo Pty Limited, [32] H. J. Kim, S. T. Lee, and Y. C. Kang, The Open Data Interface (ODI) Framework for Public Utilization of Big Data, in DATA ANALYTICS 2012, The First International Conference on Data Analytics, 2012, pp [33] B. Peters, The age of big data, july 12, Jul [34] A. Jacobs, The pathologies of big data, Commun. ACM, vol. 52, no. 8, pp , [35] D. Kord and P. Doug, Ethics of Big Data Balancing Risk and Innovation 2012.pdf. O Reilly, [36] K. Roemer, Treating employees as a threat, Network Security, vol. 2008, no. 5, pp. 9 11, [37] The Age of Big Data - Forbes. [Online]. Available: [Accessed: 08-Nov-2012]. [38] F. J. Ohlhorst, Big Data Analytics: Turning Big Data into Big Money. Wiley, [39] Twitter Blog: The human face of big data, e=youtu.b e. [Online]. Available: [Accessed: 12-Nov-2012]. [40] M. Paul., Large Scale Analysis of Health Comunications on the social web, Brown University, 24- Aug [41] Health 2.0 Conference: Big Data Making A Big Impact. [Online]. Available: [Accessed: 12-Nov-2012]. [42] Twitter Blog: A new barometer for the election. [Online]. Available: [Accessed: 12-Nov-2012]. [43] Ex-Yahoo, Facebook big data vets do Hadoop for developers Data GigaOM. [Online]. Available: [Accessed: 12-Nov2012]. [44] D. Rogers and D. Sexton, Marketing ROI in the Era of Mig Data [45] M. Brambilla, S. Ceri, T. Furche, and G. Gottlob, Second International Workshop on Searching and Integrating New Web Data Sources (VLDS 2012), [46] J. Diesner, K. Carley, and L. Tambayong, Extracting socio-cultural networks of the Sudan from open-source, largescale text data, Comput Math Organ Theory, vol. 18, no. 3, pp , Sep [47] Michael E. Porter and Victor Millar, How Information gives you competitive advantage, Harvard Business Review, no. July August 1985, pp , Aug [48] Unstructured data integration with a data warehouse - Bank of America Corporation. [Online]. Available: [Accessed: 23-Nov2012]. [49] Ramine Tinati, Susan Halford, Leslie Carr, and Catherine Pope, Interrogating Big Data f or Social Scientific Research: an Analytical Platf orm f or Visualising Twitter [50] J. Locke, C. Kasari, E. Rotheram-Fuller, M. Kretzmann, and J. Jacobs, Social Network Changes Over the School Year Among Elementary School-Aged Children with and Without an Autism Spectrum Disorder, School Mental Health, pp. 1 10, [51] C. S. J. Huang, S. J. H. Yang, and A. Y. S. Su, Applying Hebbian Theory to Enhance Search Performance in Unstructured Social-Like Peer-to-Peer Networks, ETRI Journal, vol. 34, no. 4,

90 Inteligencia de Negocios Espacial para el Desarrollo de Procesos de las Organizaciones Sandra Lucia Rodríguez Torres, Gustavo Cáceres Castellanos Resumen La inteligencia de negocios espacial y las diferentes técnicas de minería de datos facilitan el análisis de datos históricos que son almacenados por los distintos procesos de negocio que realiza una organización para cumplir con sus objetivos misionales, permitiendo que las empresas incrementen su nivel competitivo, al contribuir a la toma de decisiones y la generación de estrategias que incrementen la productividad de los procesos de la organización. Las entidades necesitan cumplir sus metas por medio de programas y proyectos que deben realizar periódicamente y para los cuales según sus características y necesidades, es necesario asignar y gestionar recursos económicos y físicos. Bajo estas dos premisas, la aplicación de inteligencia de negocios dentro de un proceso de organizacional, es clave para realizar un análisis sobre el estado y las actividades realizadas sobre los procesos ejecutados y para generar estrategias que permitan proyectar y estimar las variables involucradas en el cumplimiento de las metas proyectadas. En contraparte, la inteligencia de negocios espacial, da un amplio soporte para analizar la cobertura de la ejecución de los procesos a nivel geográfico, teniendo en cuenta los entes involucrados en los mismos. Por esta razón, se propone la fusión y aplicación de estas tecnologías para analizar y visualizar amplia y claramente, la gestión de procesos de negocio organizacionales en determinado periodo de tiempo. Abstract Spatial business Intelligence and various techniques of data mining facilitate the analysis of historical data that are stored by business processes that the organization develops in order to fulfill its mission objectives. These technologies allow companies to increase their competitive level by helping to decision making and generating strategies that increase the productivity of the organization processes. Institutions need to fulfill their goals through programs and projects that should periodically perform according to their characteristics and needs, in order to assign and manage financial and physical resources. Under these two assumptions, the application of business intelligence in a process, it s a key to analysis the status and the activities of the executed processes in order to generate strategies to plan and estimate the variables involved in the performance of project goals. In contrast, the spatial business intelligence, gives an extensive support to analyze the coverage of the execution processes in a geographical level, taking in account the entities involved in them. For this reason, the fusion and application of these technologies is proposed to analyze and visualize large and clearly, the organizational business processes in certain time. Palabras Clave Bodega de datos, información espacial, inteligencia de negocios, minería de datos, modelo multidimensional, procesamiento analítico en línea. Key Words Business intelligence, data mining, data warehouse, spatial data, multidimensional model, online analytical processing. H INTRODUCCIÓN OY en día tanto grandes y pequeñas empresas, necesitan optimizar los procesos que realizan para cumplir con la misión, la visión y los objetivos propuestos para el éxito, la rentabilidad y la competitividad de su negocio; ya que aunque el modo actual de efectuar los procesos garantice el cumplimiento de las metas planteadas, puede que dichos procesos no estén alcanzando su máximo rendimiento. Durante años, las compañías recopilan una gran cantidad de datos, sin conocer el valor que estos pueden tener dentro de la toma de decisiones de su organización. Si la organización logra transformar estos datos en información, encontrará una herramienta que preparará su camino al éxito, ya que permitirá, que se tenga un conocimiento acertado sobre lo que sucede en la misma, podrá tomar acciones para contrarrestar posibles problemas y además introducirá mejoras en los procesos que realiza actualmente. Los miembros de las compañías, deben comprender que en estos datos almacenados y sin gran valor para la organización, se encuentran tendencias de mercados, necesidades, motivaciones de los clientes, recursos invertidos, situación financiera de la empresa, del país, tendencias de consumo, etc. [1] La aplicación de técnicas de minería de datos e inteligencia de negocios, facilita la toma de decisiones en los diferentes procesos llevados a cabo por una entidad, al ofrecer herramientas que permiten realizar análisis sobre los datos históricos que tiene la entidad y su impacto sobre el proceso que se está intentando evaluar. La explotación de dicha información por medio de la aplicación de modelos matemáticos y la exploración de datos facilita conocer el estado actual de los procesos así como las proyecciones y predicciones que contribuyen a la toma de decisiones 89

91 estratégicas por parte de la organización, las cuales aumentan su nivel de competitividad. ANTECEDENTES Para el hombre, ha sido fundamental darle un tratamiento a la información que maneja en la ejecución de sus actividades diarias, de esta necesidad surge la tecnología de información (TI), que según lo definido por la asociación de la tecnología de información de América (ITAA) es el estudio, diseño, desarrollo, implementación, soporte o dirección de los sistemas de información computarizados, en particular de software de aplicación y hardware de computadoras. [2] Según M. Peralta [3], los sistemas de información se han convertido en herramientas fundamentales para el apoyo en la realización de los procesos de negocio de una compañía, debido a que permiten la entrada, almacenamiento, procesamiento y salida de información importante, sobre las transacciones hechas habitualmente en la empresa. Desafortunadamente, en la mayoría de los casos, el uso de la tecnología y la informática se limita solo al almacenamiento y la posterior consulta de datos, dejando de lado, la posibilidad de que los sistemas de información se conviertan también en sistemas estratégicos que apoyen la toma de decisiones de la organización. Sin embargo, se comienza a ver también, que con la evolución de los sistemas de información transaccionales, se están introduciendo los sistemas de información para el apoyo de decisiones y sistemas estratégicos, que están dando ventajas competitivas a la empresa, según afirma M. Peralta [3]. compañía, implica el desarrollo de un proceso de Inteligencia de Negocios. Dicho proceso, tiene como fin ofrecer elementos clave que permitan mejorar el desempeño de algún área o departamento de la organización. Con el uso adecuado de las diferentes herramientas y técnicas proporcionadas para realizar el proceso de inteligencia de negocios, es posible que las empresas puedan tener logros significativos en todos los procesos que realicen en su quehacer cotidiano, dando la posibilidad, de llevar la información de las áreas operativas hacia las áreas estratégicas de manera rápida y precisa sin intervención humana, para proporcionar información al personal encargado de tomar decisiones en esas áreas. [1] Los sistemas que aplican Inteligencia de negocios, involucran tecnologías y herramientas que apoyan la toma de decisiones operativas y estratégicas a nivel empresarial. Las tecnologías que involucran inteligencia de negocios han propuesto nuevas tendencias para apoyar los procesos organizacionales y darles un seguimiento en tiempo real que permita que las empresas gestionen de forma proactiva su negocio adaptándola a sus necesidades, en lugar de simplemente reaccionar y adaptarse a las situaciones de negocio que puedan surgir[5]. Esto, puede verse reflejado en procesos donde la distribución de la información está dada en diferentes puntos geográficos, razón por la cual es necesario que la Inteligencia de Negocios trascienda desde la información alfanumérica, para incorporar la información espacial. ANÁLISIS ESPACIO-TEMPORAL Vale la pena resaltar, que el uso de la tecnología informática e inteligencia de negocios, han estado presente durante los últimos años en el quehacer diario de las empresas, teniendo gran éxito en áreas como el comercio, las telecomunicaciones, la aviación, la salud y los sistemas de información geográfica según afirma M. Safeer et al.[4]. Quizá, no haciendo uso de las herramientas tecnológicas de la actualidad, pero su aparición, se comenzó a ver con los primeros generadores de reportes. INTELIGENCIA DE NEGOCIOS La inteligencia de negocios, se basa en la integración de datos históricos y actuales para determinar tendencias futuras y proponer escenarios posibles[1]. La transformación de estos datos a información valiosa, que contribuya al progreso de la Los sistemas de información tradicionales se encargar principalmente de administrar información alfanumérica dejando de lado su integración con la información geográfica correspondiente[6], sin embargo D. Bogantes et al. [7] afirma que más del 80% de datos de los negocios tienen algún tipo de contexto espacial asociado, pero pocas empresas aprovechan las ventajas del análisis de dichos datos respecto a su información espacial[8]. Para el manejo de los datos espaciales, surgieron los sistemas de información geográfica (SIG), que pueden ser considerados como un conjunto organizado de hardware, software, datos y técnicas eficientemente diseñadas para la integración de datos geográficos con información alfanumérica, que facilitan su almacenamiento, administración, visualización y análisis[9]. Sin embargo, los SIG por si mismos no ofrecen aún las herramientas que permiten realizar un análisis y extracción simple de datos geográficos. Por tal razón, la explotación de 90

92 una base de datos espacial por parte de un usuario final, resulta ser una tarea compleja, por lo cual se han integrado las tecnologías proporcionadas por la inteligencia de negocios con las propuestas para el desarrollo de SIG, con el objetivo de facilitar esta labor[10]. Para realizar el análisis sobre los datos geográficos, se aplican técnicas de análisis espacio-temporal, en donde se construyen consultas complejas a nivel de base de datos para realizar la extracción de información. Según J. Cely et al. [11], estas consultas utilizan propiedades temporales y espaciales de los objetos geográficos y sus relaciones con otros objetos. El análisis que se realiza sobre los objetos geográficos, puede ser clasificado por el nivel de detalle de los mismos (detallado vs agregado), por nivel de complejidad (uní-temático vs multitemático) y por el alcance temporal de los datos (uní-época multi-época) negocios como JasperSoft[15], Palo[16], Pentaho[17], SpagoBi[18] y Vainilla[19]; y además hace un análisis sobre el tipo de reportes generados por cada suite, los cuales en su mayoría muestran el análisis de los datos, a través de histogramas, tortas, barras o tablas; sin embargo SpagoBi es uno de los pioneros en la generación de reportes que tengan en cuenta la localización de la información, por esta razón, es necesario impulsar la explotación de la información geográfica y extender el análisis hecho sobre la información alfanumérica a un análisis espacial, que permita responder preguntas como Qué está sucediendo?, Dónde está sucediendo? y En qué momento está sucediendo? [20]. Los datos espaciales, pueden ser relacionados con distintas áreas de estudio como son: La educación, la salud, el tránsito, la demografía, el comercio, entre otras; y pueden representar información espacial descrita por una dirección, una región o una ruta, para que pueda ser gestionada y analizada de forma interactiva mediante un sistema de información geográfica[8]. Steve Trammell de ESRI afirma que: "Hacia el futuro las organizaciones, tienen que darse cuenta de que la adición de la dimensión de análisis geográfico en las aplicaciones sofisticadas de inteligencia empresarial, presentan resultados con un mayor conocimiento de las decisiones"[21]. Bodega de Datos Espacial Fig. 1. Tipos de análisis espacio temporal [11] Los datos detallados generalmente son almacenados en bases de datos relacionales, por su parte, los datos agregados son almacenados en bodegas de datos que permiten una fácil extracción de información. Cabe resaltar, que la complejidad de las consultas que se construyen, aumenta según la cantidad de datos y el número de temas analizados. Por esa razón, dichas consultas son desarrolladas para una necesidad específica del negocio. INTELIGENCIA DE NEGOCIOS ESPACIAL La inteligencia de negocios espacial es un componente que busca analizar, organizar y entender procesos de negocio, apoyándose en el componente geográfico inherente a la información alfanumérica[12]. Este componente espacial, surge de la necesidad de relacionar los datos con un lugar geográfico. Esto, debido a que cada vez es más común que los datos de las organizaciones, estén asociados con una ubicación (direcciones, sucursales, oficinas, etc.)[13]. A. Marinheiro [14], realiza un estudio entre varias herramientas que soportan el proceso de inteligencia de Para almacenar la información pertinente a un proceso de Inteligencia de Negocios son usadas las bodegas de datos, que surgieron como soluciones orientadas al análisis de la información de una organización con el fin de mejorar la eficiencia y eficacia de esta ante el mercado. Este tipo de repositorios, permite un eficiente procesamiento analítico de datos y consecuentemente, una óptima toma de decisiones gerenciales[21]. Una bodega de datos se define como un proceso estructurado y estratégico de métodos, técnicas y consideraciones organizacionales que permiten integrar y manejar datos de diferentes fuentes, para consolidar la información de varios procesos organizacionales, con el propósito de obtener una vista consolidada y detallada de todo el negocio o parte de él, permitiendo que la organización tome decisiones críticas en un tiempo adecuado para mantener la competitividad[22]. Los datos que son almacenados en una bodega de datos, provienen de diferentes fuentes internas o externas a la organización, razón por la cual, se encuentran en diferentes formatos y estructuras y no es posible identificar claramente, cual es la información relevante para el negocio[23]. 91

93 A raíz de lo anterior, y para apoyar la inclusión de datos espaciales, aparecen los Spatial Data Warehouse, los cuales combinan las bases de datos espaciales y las tecnologías del data warehouse y logran un mayor apoyo en el manejo de datos de tipo espacial. Estas bodegas, manejan un esquema multidimensional igual a las bodegas de datos tradicionales, pero agregan una extensión de tipo espacial que permite el manejo de elementos espaciales y no espaciales[24]. Como apoyo a la manipulación y explotación de los datos contenidos en una bodega, se tienen técnicas y herramientas para el análisis de información como los cubos OLAP o SOLAP. OLAP (On-line Analytical Processing) S. Zich et al. [25], define OLAP como un conjunto de herramientas y algoritmos que permiten realizar consultas rápidas y efectivas, en grandes repositorios de datos multidimensionales, conocidos como bodegas de datos. Para su procesamiento, esta información se presenta en cubos de datos donde se definen ciertas variables y algunas medidas de interés. OLAP, también ofrece herramientas que permiten realizar la presentación de informes, análisis, modelización y planificación para la optimización del negocio[26]. SOLAP (Spatial On-line Analytical Processing) T. Omram [27], define SOLAP como un conjunto de herramientas que permiten una fácil navegación en bases de datos espaciales, ofreciendo muchos niveles de granularidad, proporcionando información temática, cronológica y formas de visualización que incluyen mapas tablas y diagramas. Y. Bédard [28] y J. Han et al,[29] fueron los primeros en proponer un enfoque multidimensional para el desarrollo de almacenes de datos espaciales. De igual forma, la tecnología GIS reveló el interés por los análisis espaciotemporales, propiciando su integración con herramientas SOLAP, que faciliten a usuarios no expertos, analizar la información de una manera sencilla e intuitiva por medio de interfaces gráficas y que les permiten combinar parámetros según las necesidades de su negocio[7]. Con las herramientas como esta, es posible que los usuarios puedan consultar directamente las estadísticas de su negocio seleccionando un lugar de interés. Esto, gracias a la integración de diferentes áreas de conocimiento como: la inteligencia de negocios, la cartografía, los sistemas de información geográfica, entre otros; que permiten el tratamiento de la información espacial.[11] Fig. 2. Evolución de los sistemas de acuerdo a la naturaleza de los datos[30] A partir de las anteriores técnicas y herramientas es posible realizar la implementación de minería de datos espacial, cuyo objetivo se centra en encontrar conocimiento teniendo como fuente principal un almacén de datos espacial que permite relacionar los datos no espaciales y los datos espaciales, y posteriormente extraer contenidos a partir de los intereses de los usuarios [31]. EL ENFOQUE MULTIDIMENSIONAL Los datos, se consideran una base fundamental para realizar la aplicación de inteligencia de negocios. Del tratamiento que se dé a los mismos, depende el éxito del proceso de inteligencia de negocios. La información utilizada en un proceso de inteligencia de negocios, generalmente se encuentra en documentos, archivos ò bases de datos normalizadas, que evitan la redundancia de datos y mantienen la información más organizada, lo cual resulta bastante útil en sistemas transaccionales. Sin embargo, esta técnica no es óptima para el tratamiento de información en sistemas que apliquen inteligencia de negocios, ya que hace que una base de datos sea difícil de explotar, por el número de tablas, relaciones y consultas complejas que deben realizarse para obtener la información requerida, causando más tiempo de procesamiento[11]. Desde 1970 un nuevo modelo de datos ha surgido para apoyar la aplicación de inteligencia de negocios; este modelo se conoce como Modelo de datos multidimensional. El objetivo de este tipo de modelos es analizar datos, por medio de tablas de hechos, medidas y dimensiones[32]. Las tablas de hecho, están relacionadas con las medidas que se toman sobre cierto proceso de negocio, para un periodo de 92

94 tiempo específico. Por su parte, las tablas dimensionales contienen información relevante del proceso de negocio que alimenta las tablas de hecho. A partir de un modelo multidimensional, es posible generar cubos de análisis con la aplicación de técnicas y herramientas OLAP o SOLAP. La figura 3, muestra un cubo SOLAP, el cual representa la edad de cierta población en una región geográfica. activos en el desarrollo del proceso en estudio, quienes tienen el conocimiento de lo que quieren y necesitan para agilizar el desarrollo de las actividades propias del mismo.[34] Acción En esta fase, es necesario tener en cuenta, que las acciones surgen a partir de las decisiones que han sido tomadas en el desarrollo del proceso de inteligencia de negocio. Los ejecutivos, deben tener en cuenta que la toma de decisiones basada en un proceso de inteligencia de negocios puede guiar a la empresa hacia mejores oportunidades competitivas y a la realimentación de sus procesos de negocio. Sin embargo, en muchos casos la organización tiene temor a la implementación de los cambios y se resisten a ejecutar las acciones que se sugieren como resultado del proceso.[34] Fig. 3. Una celda de un cubo de análisis SOLAP, que muestra la edad de una población en una región.[33]. CICLO DE VIDA DE LA INTELIGENCIA DE NEGOCIOS Para lograr la implementación de un proceso de inteligencia de negocios dentro de una organización, se recomienda seguir un ciclo de vida que facilite la definición de objetivos, el seguimiento del progreso de las actividades definidas y la medición del éxito de la implementación del proceso.[2] Medición Finalmente, se encuentra la fase de medición, en la cual se evalúan los resultados obtenidos versus los resultados esperados al inicio del proceso. En esta fase, es primordial tener en cuenta los indicadores clave de desempeño, los cuales se generan una vez se explora y analiza la gran cantidad de datos identificados al inicio del ciclo, a partir de técnicas y algoritmos de minería de datos que permiten calcular e identificar información relevante del proceso. Es importante tener en cuenta que, esta fase puede realimentar una nueva iteración del ciclo de vida del proceso en caso de que los resultados no sean los esperados, o en que se requieran métricas adicionales sobre la información procesada[34]. Se definen cuatro fases clave para el desarrollo de un proceso de inteligencia de negocios dentro de la organización, las cuales se describen a continuación: Análisis En esta etapa se da el primer acercamiento al negocio, se entiende cómo opera la organización y se determinan los datos que se van a recopilar. Es una fase donde se determina la información relevante como los clientes, los proveedores, los empleados, los insumos, la producción, el costo y la calidad.[34] Reflexión La fase de reflexión, implica un estudio detallado del proceso de negocio. La reflexión nace de un análisis libre de preguntas que solo los ejecutivos pueden formular y que se encaminan al descubrimiento de patrones relevantes. Es importante tener claro, que son los ejecutivos y miembros Fig. 4. Ciclo de vida de Inteligencia de Negocios [34] 93

95 APLICACIÓN DE INTELIGENCIA DE NEGOCIOS EN ORGANIZACIONES En los últimos años, la inteligencia de negocios ha sido adoptada en muchas organizaciones a nivel mundial; esto, debido a las ventajas competitivas que tiene su aplicación. Sin embargo, aún hay un gran número de compañías que no se han visto beneficiadas por su aplicación, en un informe de la Economist Intelligence Unit (EIU) encargado por Business Objects se constató que nueve de cada diez ejecutivos admitían tomar decisiones importantes con información inadecuada [2], [35]. Los directivos de las organizaciones, deben reconocer que las soluciones de Inteligencia de Negocios tienen cabida en una variedad procesos y áreas tales como: la educación, la salud, las finanzas, el mercadeo, el transporte y prácticamente en cualquier proceso que maneje gran cantidad de datos. Las organizaciones se apoyan en sistemas de inteligencia de negocios, para identificar patrones de comportamiento dentro de periodos de tiempo y así tomar decisiones empresariales[36]. Muchas empresas de renombre como GE, Motorola, Microsoft, HP, IBM, Intel, Terry M, Xerox, Coca- Cola, Chrysler, se apoyan en sistemas inteligentes. Algunos países, como Francia, Japón, Suecia y los Estados Unidos tienen progresos considerables en cuanto al uso de los sistemas de BI (Bussines Intelligence). En estos países, BI se considera un factor importante en la obtención de ventajas competitivas. Incluso la Universidad de Lund en Suecia es la primera universidad en que establece la Inteligencia de negocios como un PhD. [26] De igual forma en países como Perú, se implementó este tipo de solución en el área de compras y ventas de una empresa comercializadora de electrodomésticos. Dicha solución permitió medir indicadores tales como: el grado de movimiento que tiene un producto en la empresa, la cantidad de productos por tienda, las ventas por sector, análisis de clientes, entre otros. Esto dio a la empresa un apoyo para la toma de decisiones relacionas con: qué hacer si un producto tiene poca circulación, como impulsar la compra de productos en donde la demanda del mismo sea baja, estimar el precio de ventas de los productos y el comportamiento de los compradores, para ofrecerles productos que posiblemente requieran. [37] proyectos nuevos y proyectos concluidos. Esta solución dio grandes resultados, debido a que contribuyo al cumplimiento de la normatividad propuesta en la Ley de Transparencia y Acceso a la Información Pública, que tiene por objetivo garantizar a la ciudadanía el uso adecuado de los recursos públicos. [1] Para apoyar las soluciones de inteligencia de negocios, los gráficos, tablas y diagramas han sido herramientas de visualización para mostrar el contexto y la información, así mismo permitir la medición y evaluación de procesos. Sin embargo, una visualización efectiva expone la visión de información situada justo debajo su geografía, lo cual permite presentar datos complejos y abstractos sin abrumar al usuario[38]. En este ámbito espacial, se han desarrollado proyectos que usan datos geográficos organizados temáticamente en diferentes capas, en donde cada capa representa un conjunto de características geográficas o fenómenos. Por ejemplo, regiones, calles, zonas de venta, volumen de venta, distribución de ingresos y ubicaciones de los clientes, entre otras[13]. Entre los sistemas que impulsaron la inteligencia de negocios espacial se encuentra JMap Spatial OLAP, que fue una de las primeras tecnologías en promover el análisis sobre bases de datos espaciales con tecnología OLAP. Actualmente, este sistema cambio su nombre a Map4Decision, una solución que permite la creación de mapas dinámicos según las reglas de análisis brindadas por el usuario. Ofreciendo la posibilidad de realizar análisis desde varios niveles de detalle.[7] También, en la ciudad de México D.F. se aplicó inteligencia de negocios para evaluar el comportamiento del presupuesto en la Secretaría de Comunicaciones y Transporte. Este proyecto buscó controlar y gestionar la información financiera, por medio de herramientas confiables, disponer de todos los datos necesarios para la toma de decisiones, conocer en cualquier momento, la posición actual de la organización con respecto a proveedores de servicios, presupuestos, Fig. 5. Imagen de sistema con inteligencia de negocios espacial Map4Decision que implementa tecnología SOLAP.[39] Por otro lado se encuentra MapIntelligence, un sistema español que impulso el análisis de datos espaciales adecuándose a las necesidades del cliente y que se ha destacado en áreas como la Pesca, la salud y el transporte[40]. 94

96 De igual forma, se encuentran sistemas como GlobeMap[41], el cual apoyó el análisis del Sistema nacional de educación de Brasil, enfocándose en el proceso de Evaluación de educación básica aplicado en los grados 3ª,4º y 8ª. Este sistema facilitó el análisis de las puntuaciones de los resultados de la evaluación en las diferentes regiones del país. Adicionalmente las tecnologías SOLAP para el procesamiento de datos espaciales han sido ampliamente utilizadas en el área del transporte, teniendo grandes resultados en países como Singapur, donde ha sido implementado un proyecto orientado a optimizar el servicio de taxis, a partir del análisis tanto del comportamiento del servicio, como del de los pasajeros[42]. De igual forma, según Y. Oubenaalla et al. [43] la tecnología SOLAP también han tenido aplicación en áreas como la contaminación del aire a nivel regional en Marruecos. Esto gracias a la visualización que ofrecen para áreas de negocio que tengan componentes espaciales asociados. ADMINISTRACIÓN CORPORATIVA DEL CONOCIMIENTO Desde los años 80 la información ha tomado un papel importante dentro de la sociedad, inicialmente, esta era un recurso escaso y solo las compañías que lograban obtenerla, distribuirla y analizarla tenían ventajas competitivas respecto a las demás.[2] A lo largo del tiempo, la información se ha constituido como un elemento primordial dentro de una organización. Sin embargo, muchas empresas no saben gestionarla para incrementar su productividad. El Instituto Tecnológico de Masacchussets (MIT), ha realizado investigaciones donde afirma que las organizaciones exitosas, se han caracterizado por la habilidad que tienen para integrar la informática en la transformación de su negocio.[44] Cabe aclarar, que las organizaciones tienen que adaptar la inclusión de las tecnologías de información a las necesidades y requerimientos de sus procesos, esto debido a que, no todas las compañías pueden aplicar las mismas estrategias. De acuerdo con L. V. Díaz [45], los ejecutivos de pequeñas o medianas empresas están obligados a saber sobre sus negocios para permanecer y crecer en el mercado y no únicamente en hacer negocios para sostener la dinámica de la empresa. realizadas por una compañía. Según L. V. D. Rodríguez [46] y L. Díaz [45], la administración del conocimiento es una disciplina de la cual hacen parte diferentes componentes de la organización como son las personas, los procesos y la tecnología. Por eso es necesario organizar y tener en cuenta las diferentes fuentes de información, de forma que puedan ser procesadas para los fines pertinentes del negocio. L. Calzada [2] afirma que, algo peor que no tener información disponible es tener mucha información y no saber qué hacer con ella. Aún así, no solo la gestión y el almacenamiento ordenado de los datos garantizan que los directivos puedan tomar decisiones a partir de los mismos. A. Gómez [47], afirma que el verdadero valor de la información dentro de una compañía, se revela cuando a partir de los datos almacenados, la organización tiene la capacidad de descubrir conocimiento. Sin embargo es común que haya una brecha entre la información que los directivos de la empresa requieren para la toma de decisiones y las grandes cantidades de datos que son recopilados cada día. La figura 6 expone dicha paradoja, indicando que el conocimiento surge del análisis de los datos y no solo de su almacenamiento o manipulación. Dichos datos, deben ser transformados en información útil, que genere conocimiento para la organización. Fig. 6. Entorno de la administración del conocimiento [48] Por otro lado, teniendo en cuenta la información espacial, vale la pena destacar que según A. Quintanilla [49], desde los años 90 los sistemas han dejado de almacenar información meramente alfanumérica y el 80% de la información almacenada en bases de datos corporativa cuenta con un componente espacial. Razón por la cual, resulta necesario gestionar dicha información, para dar un manejo geográfico a la información alfanumérica. Es de resaltar que la información dentro de una compañía, no solo es almacenada en archivos y carpetas. Hay una fuente de información invaluable, que está dada por los miembros de la organización. Dicha información, también debe ser tenida en cuenta para el análisis de los procesos y actividades 95

97 IMPACTO DE LA INTELIGENCIA DE NEGOCIOS ESPACIAL EN LAS ORGANIZACIONES El impacto de la implementación de inteligencia de negocios en las organizaciones ha sido bastante positivo. De igual forma, la integración del componente espacial en este proceso, se ha posicionado gracias a los sensores y los sistemas de posicionamiento global GPS, donde la información espacial ha permitido entrar en áreas como la caracterización de perfiles poblacionales, la identificación de trayectorias y rutas, la evaluación de aspectos socioeconómicos, entre otros. Los cuales, teniendo en cuenta aspectos como el tiempo, han permitido establecer patrones de comportamiento y estimar ubicaciones futuras de los objetos de estudio.[50] En el año 2007 la empresa SAS realizo un estudio para evaluar la aplicación de inteligencia de negocios dentro de pequeñas y medianas empresas de países pertenecientes a América del norte, Europa, Medio Oriente y África. Dicho estudio, dio como resultado que la administración eficaz y el uso adecuado de información es un componente clave para el éxito de una organización, sin embargo también pudo notarse que muchas empresas tienen problemas graves en la gestión de la información[2]. Es muy común que algunos ejecutivos de pequeñas o medianas empresas, tengan acceso a información de calidad y sean capaces de justificar decisiones con dicha información, sin embargo, puede que no dispongan de la información adecuada o no cuenten con herramientas para gestionarla y explotarla para tomar las mejores decisiones[51]. Los resultados arrojados por SAS [52],[2], informan que el 25% de las organizaciones encuestadas indican que su área implementa procesos de inteligencia de negocios. Pero casi un 80% de las empresas no tienen estrategias para garantizar la calidad de los datos, integrarlos u organizarlos. Según SAS [52] tanto el desempeño, como el nivel de madurez de la información de una empresa, están directamente relacionados. La figura 7, muestra el rendimiento de las empresas encuestadas después de aplicar prácticas de administración de la información. Respecto a los años anteriores a su aplicación, puede notarse que el rendimiento de las empresas subió cuando la aplicación de prácticas para el manejo de la información fue mayor. OBSTÁCULOS EN LA IMPLEMENTACIÓN DE INTELIGENCIA DE NEGOCIOS Existen varios factores que obstaculizan la implementación de un proceso de inteligencia de negocios. Es necesario conocer los posibles inconvenientes que pueden presentarse, para poder minimizar el riesgo de su ocurrencia [2]: Las organizaciones no implementan estrategias para la gestión de la información Muchas organizaciones, tienen fuentes de información heterogéneas (sistemas antiguos, diferentes bases de datos relacionales, archivos planos, archivos físicos, entre otros), razón por la cual su integración se hace compleja y no es fácil ubicar e identificar información. El entorno de la organización esta desalineado con la gestión de información Las empresas no infunden dentro de su cultura, políticas y estrategias; las habilidades y actividades necesarias para dar un buen manejo a la información, para que de esta forma esta sea accesible rápidamente para usarla eficazmente dentro de los procesos de negocio. Empresas sin fortaleza tecnológica y Analítica Fig. 7. Estadística realizada por SAS, donde se determina que las buenas prácticas para el manejo de la información incrementa de manera significativa la posibilidad de alcanzar el éxito. [52] Algunas compañías, solo almacenan organizadamente la información producida durante sus procesos de negocio. Sin embargo, no alinean sus estrategias con la inclusión de tecnologías y herramientas, que faciliten el análisis de los datos almacenados para producir información. De igual 96

98 manera, la empresa debe contar con personal experto que sea capaz de descubrir en los datos almacenados, nuevas estrategias de negocio para fortalecer a la organización. Desaprovechamiento de las ventajas de Inteligencia de negocios dentro de la organización Los miembros de la organización, deben capacitarse y comprometerse en la aplicación de inteligencia de negocios en los procesos de la empresa. De igual forma, deben convencerse de las ventajas competitivas que traerá a la empresa y no resistirse a los cambios que puedan darse en la compañía después de su aplicación. CONCLUSIONES Es necesario aprovechar la información histórica almacenada sobre los procesos de negocio realizados en las organizaciones, para incrementar sus ventajas competitivas y establecer estrategias de negocio que incrementen la productividad de las mismas. Por esta razón, la inteligencia de negocios, es una tecnología que debe ser aplicada por las organizaciones para la consolidación, el análisis de datos y la posterior toma de decisiones. La inteligencia de negocios, ha tenido gran aceptación en diferentes nichos de acción por los resultados obtenidos. En el departamento Colombiano de Valle del Cauca, se realizó un estudio sobre las 500 empresas más grandes del departamento según el diario El país [53], relacionadas con áreas como agroindustria, sector energético, educativo, salud, financiero, y que cuentan con área dedicada a las tecnologías de información (TI), con el fin de conocer la inclusión de dichas tecnologías en su estrategia de negocio. Este estudio, dio como resultado que el 65% de las empresas, están implementando dentro de sus prácticas la Inteligencia de negocios, y que solo un 20% de las empresas que no están implementando dicha práctica, tiene interés en implementar dicha tecnología en su negocio. Dentro de los beneficios encontrados por dichas empresas en la aplicación de tecnologías de información se encuentran: Mayor flexibilidad de los procesos, reducción de costos, aumento en la satisfacción del cliente, mejora de intercambio de información entre unidades de negocio y mayor efectividad en los procesos, lo cual les ha facilitado la alineación de la estrategia de negocio con la implementación de tecnologías de información[54]. Por esta razón, es necesario que las empresas comprendan su utilidad y decidan adoptar esta tecnología para optimizar los procesos que llevan a cabo. Por otro lado, la inteligencia de negocios espacial, es un campo que tiene gran explotación en la actualidad, debido a la información espacial que las compañías tienen enlazada a sus procesos de negocio. Los sistemas de información geográfica y la aplicación de minería de datos espacial, facilitan la representación y el análisis de este tipo de información. Pudiendo mostrar en el espacio y el tiempo, los comportamientos que tiene un proceso de negocio y adicionalmente, mostrando predicciones que surgen por medio de los algoritmos y técnicas de procesamiento aplicado a los datos. Es de resaltar, que existe una gran cantidad de retos que la inteligencia de negocios espacial quiere abarcar. Dichos retos, están vinculados al análisis y presentación de patrones complejos que puedan ser procesados eficientemente. La idea es centrarse en la velocidad de procesamiento, para que el tiempo de respuesta de la ejecución de algoritmos y visualización de los datos sea óptimo.[50] REFERENCIAS [1] G. D. Vega Vivas, Inteligencia De Negocios. Aplicación En La Administración Del Presupuesto En Una Empresa Del Sector Publico, [2] L. Calzada and J. L. Abreu, El impacto de las herramientas de inteligencia de negocios en la toma de decisiones de los ejecutivos (The impact of business intelligence tools in executive business decisions), Daena: International Journal of Good Conscience, vol. 4, no. 2. pp , [3] M. Peralta, Sistema de información. El Cid Editor, [4] M. Safeer and S. Zafar, Impact of business intelligence competency center in success/failure of BI applications, in Multitopic Conference (INMIC), 2011 IEEE 14th International, 2011, pp [5] Y. Shi and X. Lu, The Role of Business Intelligence in Business Performance Management, in Information Management, Innovation Management and Industrial Engineering (ICIII), 2010 International Conference on, vol. 4, 2010, pp [6] B. She, X. Zhu, and S. Bao, Spatial data integration and analysis with spatial intelligence, in Geoinformatics, th International Conference on, 2010, pp

99 [7] D. Bogantes Gonzalez and L. Pandolfi Gonzalez, Spatial data warehouses and SOLAP using opensource tools, in Computing Conference (CLEI), 2013 XXXIX Latin American, 2013, pp [8] M. Ponjavic and A. Karabegovic, Innovation in business intelligence systems: Spatial component for advanced threat and risk analysis, in Computer Science and Information Systems (FedCSIS), 2012 Federated Conference on, 2012, pp [9] M. R. Villagrá, A. Carretero, J. Maroto, and M. Muneta, Managing Industrial Simulator Visual Databases Using Geographic Information Systems, in Computer Modelling and Simulation (UKSim), 2011 UkSim 13th International Conference on, 2011, pp [10] M. Angelaccio, A. Basili, B. Buttarazzi, and W. Liguori, Using geo-business intelligence to improve quality of life, in Satellite Telecommunications (ESTEL), 2012 IEEE First AESS European Conference on, 2012, pp [11] J. Cely and Y. Bédard, El paradigma multidimensional: desarrollo de nuevas tecnologías para la gestión del territorio, in 12th International Symposium of the Latinoamerican Society of Remote Sensing and Spatial Information Systems (SELPER), pp [12] A. Karabegovic and M. Ponjavic, Geoportal as decision support system with spatial data warehouse, in Computer Science and Information Systems (FedCSIS), 2012 Federated Conference on, 2012, pp [13] T. D. Ndie, C. Tangha, and B. Janwouo, GIApSCart: A geo-intelligence application based on semantic cartography, in Sciences of Electronics, Technologies of Information and Telecommunications (SETIT), th International Conference on, 2012, pp [14] A. Marinheiro and J. Bernardino, Analysis of open source Business Intelligence suites, in Information Systems and Technologies (CISTI), th Iberian Conference on, 2013, pp [15] JasperSoft. [Online]. Available: [Accessed: 2014]. [16] Palo. [Online]. Available: [Accessed: 2014]. [17] Pentaho. [Online]. Available: [Accessed: 2014]. [18] SpagoBi. [Online]. Available: sion. [Accessed: 2014]. [19] Vainilla. [Online]. Available: [Accessed: 2014]. [20] A. Drachen and M. Schubert, Spatial Game Analytics, in Game Analytics, Springer, 2013, pp [21] M. X. D. Reyes, Minería de datos espaciales en búsqueda de la verdadera información, Ingeniería y universidad, vol. 13, no. 1. Facultad de Ingeniería, pp , [22] N. Schahovska, Datawarehouse and dataspace information base of decision support system, in CAD Systems in Microelectronics (CADSM), th International Conference The Experience of Designing and Application of, 2011, pp [23] R. A. de Páez, Las bodegas de datos como apoyo a los sistemas de información acerca del negocio, Revista Universidad EAFIT, vol. 32, no pp , [24] G. Jiashu and L. Zhan, The construction and key issues of spatial data warehouse for oil exploration and development, in Artificial Intelligence and Computational Intelligence (AICI), 2010 International Conference on, vol. 3, 2010, pp [25] S. J. Zich and A. A. Vaisman, Desarrollo De Un Lenguage De Consulta Para Integracion De Sistemas De Informacion Geografica (Gis) Y On Line Analytical Processing (Olap) [26] M. Bahrami, S. M. Arabzad, and M. Ghorbani, Innovation In Market Management By Utilizing Business Intelligence: Introducing Proposed Framework, Procedia-Social and Behavioral Sciences, vol. 41. Elsevier, pp , [27] T. O. Ahmed, Spatial on-line analytical processing (SOLAP): Overview and current trends, in Advanced Computer Theory and Engineering, ICACTE 08. International Conference on, 2008, pp [28] S. Rivest, Y. Bedard, and P. Marchand, Toward better support for spatial decision making: defining the characteristics of spatial on-line analytical processing 98

100 (SOLAP), GEOMATICA-OTTAWA-, vol. 55, no. 4. Canadian Institute of Geomatics, pp , [29] J. Han, K. Koperski, and N. Stefanovic, GeoMiner: a system prototype for spatial data mining, ACM SIGMOD Record, vol. 26, no. 2. ACM, pp , [30] Y. Bédard, M.-J. Proulx, and S. Rivest, Enrichissement du OLAP pour l analyse géographique: exemples de réalisation et différentes possibilités technologiques., in EDA, 2005, p. 1. [31] B. Li, L. Shi, and J. Liu, Research on spatial data mining based on uncertainty in Government GIS, in Fuzzy Systems and Knowledge Discovery (FSKD), 2010 Seventh International Conference on, vol. 6, 2010, pp [32] F. Moreno, I. Amón, and F. Arango, Cambio en el grado de inclusión en un modelo multidimensional, Revista Facultad de Ingeniería, no. 53. pp , [33] A. Lamas, F. Sotelo, M. Borobio Sanchiz, and J. I. Varela García, Creación de un módulo espacial OLAP para Saiku. Universitat de Girona. Servei de Sistemes d Informació Geogràfica i Teledetecció, [34] S. A. González Pinos, Análisis costo/beneficio de la implementación de business intelligence en pymes de la ciudad de Quito, del sector de redes y telecomunicaciones, [35] W. Hsu, M. L. Lee, and J. Wang, Temporal and spatiotemporal data mining. IGI Pub., [36] S. Talati, G. McRobbie, and K. Watt, Developing business intelligence for Small and Medium Sized Enterprises using mobile technology, in Information Society (i-society), 2012 International Conference on, 2012, pp [37] K. G. R. Cabanillas, K. Gladys, and A. L. Mendoza Peña, Análisis, diseño e implementación de una solución de inteligencia de negocios para el área de compras y ventas de una empresa comercializadora de electrodomésticos, [38] C. Ren, W. Wang, and H. Luo, Research on the GISbased Business Decision System, in Geoinformatics, th International Conference on, 2010, pp [39] Map4Decision. [Online]. Available: mples/infrastructuremanagement. [Accessed: 2014]. [40] MapIbntelligence. [Online]. Available: [Accessed: 2014]. [41] V. R. T. Ferraz and M. T. P. Santos, GlobeOLAP- Improving the Geospatial Realism in Multidimensional Analysis Environment., in ICEIS (5), 2010, pp [42] C. Wang, W. K. Ng, and H. Chen, From data to knowledge to action: A taxi business intelligence system, in Information Fusion (FUSION), th International Conference on, 2012, pp [43] Y. Oubenaalla and O. El Beqqali, CTMSOLAP: A Regional geo-decisional Support System Based on the SOLAP Approach and a Chemistry Transport Model [44] J. H. M. García, La Inteligencia De Negocios Como Herramienta Para La Toma De Decisiones Estratégicas En Las Empresas. Análisis De Su Aplicabilidad En El Contexto Corporativo Colombiano [45] L. V. Díaz, Gestión del conocimiento y del capital intelectual: una forma de migrar hacia empresas innovadoras, productivas y competitivas, Revista EAN, no. 61. pp , [46] L. V. D. Rodríguez, Gestión del conocimiento y tecnología de información y comunicaciones, Revista EAN, no. 58. pp , [47] A. Gómez, Inteligencia de negocios, una ventaja competitiva para las organizaciones, Revista CIENCIA Y TECNOLOGÌA, vol. 8, no. 22. pp , [48] Sinnexus. [Online]. Available: e_negocio.aspx. [Accessed: 2014]. [49] A. Quintanilla, J. M. Moreno, J. Sánchez, A. Osann Jochum, and A. Calera, Aplicación de tecnologías solap/web para el asesoramiento del riego por satélite [50] J. G. Agudelo and D. C. Aljure, Minería de datos espaciales, Revista Avances en Sistemas e Informática, vol. 8, no. 3. Universidad Nacional de Colombia, pp ,

101 [51] J. H. Mantilla Hernández, Metodología De Diseño De Cubos Olap Para Inteligencia De Negocios Usando Mondrian Y Jpivot A Partir De Una Base De Datos Transaccional. Universidad Industrial de Santander, [52] SAS, Business Analytics and Business Intelligence Software -SAS, [53] Diario El País (2011, julio 29). Las 500 empresas más vendedoras del En. [Online]. Available: 8d9ff72bd5c31aef855. [Accessed: 2011]. [54] A. F. Millán, M. A. Rodríguez, E. M. González, and J. W. Alzate, Estudio de las prácticas de Arquitectura Empresarial en las grandes empresas del Valle del Cauca, Ingenium, vol. 6, no. 13. pp ,

102 Evolución de Estrategias en Juegos No cooperativos usando programación genética gramatical Giraldo Fabián A, Londoño Isabel Resumen El artículo tiene como objetivo presentar el diseño e implementación de diferentes mecanismos para realizar procesos de evolución de estrategias en juegos no cooperativos, específicamente el dilema del prisionero iterado, ampliamente usado como modelo a estudiar en el ámbito de la economía evolutiva. La programación genética gramatical fue utilizada para realizar procesos de evolución en dos casos: la evolución de programas especificados en PROLOG que tiene el conocimiento adecuado para jugar el dilema del prisionero y la evolución de la arquitectura de redes neuronales bajo un enfoque de aprendizaje supervisado que tiene la capacidad de aprender juegos históricos supuestos para el dilema. El resultado final, es un ambiente de simulación en el cual se puede verificar la emergencia de estrategias, que pueden vencer otras estrategias a través de un proceso de entrenamiento. Palabras Claves Dilema Prisionero iterado, Programación genética gramatical, Redes Neuronales artificiales, teoría de juegos. Abstract This paper presents the design and implementation of different mechanisms for evolution strategies process in noncooperative games, specifically the iterated prisioner dilemma widely used as a study model in the field of evolutionary economics. Grammar based genetic programming was used in two cases: the evolution of programs specified in Prolog which has the proper knowledge to play the prisioner dilemma and the evolution of the neural network architecture under supervised learning approach which has ability to learn the dilemma historical assumptions. The final result is a simulation environment in which the emergences of strategy can be verified where other strategies can be defeated through training process. Keywords Game theory, grammar based genetic Programming, iterated prisioner dilemma, neural Networks. INTRODUCCIÓN La teoría de juegos clásica es una herramienta matemática con aplicaciones en economía que permite analizar las interacciones entre individuos (agentes) que bajo un conflicto de intereses y reglas establecidas, buscan seleccionar racionalmente una estrategia con el fin de maximizar la recompensa esperada. En otras palabras, la teoría de juegos provee un lenguaje para formular las estructuras, analizar y comprender escenarios estratégicos [1]. Sin embargo, para realizar el análisis del comportamiento racional de los jugadores es importante conocer dos elementos fundamentales: los tipos de juegos bajo los cuales se puede realizar la interacción (juegos cooperativos y no cooperativos - jugadores se comunican o no para selección de estrategias-), con el fin de determinar las situaciones de conflicto o cooperación y los supuestos centrales de la teoría de juegos [1]. Con el fin de analizar las diferentes estrategias que seleccionan los jugadores, la teoría clásica tiene en consideración una serie de supuestos, entre los cuales se encuentran: las acciones individuales son instrumentalmente racionales, debe existir un conocimiento común de racionalidad, existen prioridades comunes, las acciones son ejecutadas dentro de las reglas de juego, los jugadores ejecutan sus estrategias sin errores [2]. Este campo de investigación fue establecido por Von Neumann y el economista Oskar Morgenstern luego de la publicación del libro Theory of Games and Economic Behavior en 1944 [3]. A partir de entonces, la teoría de juegos ha tenido aplicaciones en diversos campos del saber como: economía, política, biología, ciencias de la computación, psicología, sociología, entre otras. A pesar de los aportes de la teorías de juegos clásica existen 101

103 diversas críticas dado que los juegos son interpretados como descripciones literales de interacciones idealizadas (la aplicabilidad a modelos del mundo real puede verse limitada), en los cuales los supuestos de racionalidad perfecta y homogeneidad parecen bastante naturales. Como resultado de las críticas, han surgido nuevas teorías como la teoría de juegos evolutivos aplicables en el ámbito de la economía computacional basada en agentes, la cual no se basa en supuestos de racionalidad perfecta sino en procesos de selección natural Darwiniana [4]. Ambos enfoques tienen notables diferencias, a continuación se especifican los elementos fundamentales. En la teoría de juegos clásica: 1) La atención se centra en los jugadores, los cuales se esfuerzan para elegir las estrategias que optimicen sus pagos. 2) Los jugadores escogen sus estrategias de un conjunto de estrategias bien definidas como parte de la definición del juego. 3) El agente optimizador es la racionalidad o intereses propios. En los juegos evolutivos: 1) La atención se centra en las estrategias que persisten a través del tiempo. 2) Los jugadores generalmente heredan sus estrategias y ocasionalmente adquieren nuevas estrategias producto de mutaciones. El conjunto de estrategias es determinado por las estrategias genéticas, físicas y ambientales que pueden cambiar a través del tiempo. 3) La selección natural actúa como agente optimizador. Los juegos evolutivos tratan de estudiar las condiciones de cómo y porqué ciertos comportamientos en un entorno complejo puede ser aprendido por agentes con racionalidad limitada a través de un proceso de adaptación guiado por planes estratégicos. El concepto base de los juegos evolutivos es la evolución por selección natural Darwiniana, la cual es considerada como juego evolutivo en el sentido que tiene jugadores, estrategias, conjunto de estrategias y recompensas [5]. Con el fin de comprender los comportamientos emergentes en los juegos, muchos trabajos de investigación han abordado el problema. Entre las estrategias propuestas está la economía computacional basada en agentes [6], la cual permite configurar agentes económicos utilizando diferentes estados, reglas, estrategias o conductas. Esto con el fin de experimentar variados escenarios del sistema y tratar de comprender comportamientos globales que surgen a nivel macro a través de interacciones locales repetidas de agentes egoístas. Sin embargo, estas aproximaciones requieren que las reglas y/o estrategias de los agentes sean preconfiguradas con anterioridad al proceso de simulación, un elemento que en muchos sistemas no se conoce y que en algunas circunstancias no se puede modelar dadas las características de complejidad, no linealidad e incertidumbre. La idea general es buscar mecanismos que permitan a los agentes originar, adaptar y retener estrategias que garanticen su adaptabilidad al entorno a partir de variables económicas subyacentes a un sistema económico específico [7]. Diferentes estrategias de evolución han sido utilizadas, entre las cuales se encuentran: estrategias evolutivas [8], algoritmos genéticos [9], programación genética [10], programación genética gramatical [11], y técnicas de coevolución [12, 13]. Otras aproximaciones utilizan agentes integrados con redes neuronales con el fin de modelar el comportamiento racional limitado de los agentes y así evolucionar sus comportamientos de tal forma que se adapten mejor al ambiente. La siguiente investigación presenta procesos de evolución de estrategias en juegos no cooperativos repetitivos, específicamente en dilema del prisionero, utilizando programación genética gramatical para la evolución de estrategias siguiendo los lineamientos sintácticos del lenguaje PROLOG y técnicas de neuroevolución, específicamente evolución de perceptron multicapa basado en juegos históricos de jugadores y contrincantes. El artículo está estructurado de la siguiente forma: la sección II presenta la especificación del dilema del prisionero; la sección III especifica los elementos conceptuales de la programación genética gramatical; sección IV desarrolla los métodos utilizados para la realización de procesos de evolución; la sección V los resultados; por último, sección VI se presenta las conclusiones de la investigación. DILEMA DEL PRISIONERO El dilema del prisionero (PD) es un modelo clásico de la teoría de juegos denominado juego de suma no nula, formulado por el matemático Tucker con base en las ideas de Flood y Dresher en 1950 [14]. El juego es tradicionalmente descrito usando la metáfora de dos sospechosos que han sido arrestados y están siendo interrogados por separado. Sin ningún tipo de comunicación, cada jugador debe decidir si cooperar C (guardar silencio) o no cooperar D (traicionar a su pareja). Cada jugador recibe un pago individual dependiendo de las decisiones tomadas [15]. Existen cuatro posibles resultados: Ambos jugadores 102

104 deciden cooperar (Reward), ambos jugadores deciden no cooperar (Punishment), el Jugador A decide cooperar mientras que el jugador B no coopera (Sucker), y el jugador A decide no cooperar mientras que el jugador B decide cooperar (Temptation). El juego constituye un dilema si se cumplen las siguientes desigualdades, Ec. (1): T > R > P > S y 2R > S + T (1) Los valores típicos son presentados en la tabla 1. Si existe una única oportunidad de jugar y basados en supuestos de racionalidad, la mejor decisión es siempre no-cooperar; por lo tanto, esta última es denominada una estrategia dominante en el juego (equilibrio de Nash). TABLA I MATRIZ DE PAGOS DILEMA PRISIONERO JUGADOR B JUGADOR A COOPERAR NO COOPERAR COOPERAR R=3,R=3 S=0,T=5 NO COOPERAR T=5,S=0 P=1,P=1 Muchas variaciones del juego han sido propuestas, una de ellas es el dilema del prisionero iterado (IPD) presentada por Axelrod en 1984, en el cual dos contrincantes juegan repetidamente el dilema del prisionero. La clave del IPD es que ambos jugadores pueden jugar nuevamente, lo cual habilita a los jugadores a desarrollar estrategias de juego basados en interacciones de juegos previos con el fin de maximizar los pagos recibidos. Teóricamente el movimiento de un jugador puede influir en el comportamiento de su oponente en el futuro, afectando de esta manera futuros pagos. Esto remueve la estrategia dominante de la no-cooperación mutua [16]. PROGRAMACIÓN GENÉTICA GRAMATICAL (PGG) La programación genética gramatical es una técnica de computación evolutiva desarrollada por O Neill en el año 2003, que puede ser usada para generar programas en cualquier lenguaje usando gramáticas de libre contexto expresadas en notación BNF (Backus Naur Formal) [17]. Los algoritmos genéticos tradicionales requieren el establecimiento con antelación de un esquema de representación de solución adecuado, generalmente entero o binario de longitud fija, limitando notablemente cuando se trata de evolucionar programas de computador, debido a que estos, en la mayoría de los casos, son de longitud variable, es decir, no existe un límite de instrucciones que deben ser consideradas. Dado lo anterior, se desarrolló un nuevo esquema, denominado Programación Genética (PG) [18] en la cual la población de individuos está formada por programas de computador representados en forma de árboles sintácticos, donde los individuos no tienen una longitud máxima establecida a priori. A pesar que este enfoque permite evolucionar programas de computador, presenta un problema que limita la velocidad de convergencia en algunos casos, el cual es denominado el problema del cierre, causado por la generación de individuos infactibles durante el proceso de cruce. Con el fin de solucionar dicho inconveniente se desarrolla una extensión a esta última aproximación denominada programación genética gramatical (PGG) [19], en la cual los individuos son generados a partir de una gramática de libre contexto en notación BNF, que define la estructura formal de los elementos sintácticos que debe cumplir un programa de computador. Por lo tanto, cada individuo generado es un árbol de derivación que representa una solución cumpliendo con las restricciones sintácticas de la especificación gramatical. MÉTODO DE SOLUCIÓN PROPUESTOS Simulador dilema del prisionero iterado El diseño de un simulador que cumpla con las especificaciones definidas para la realización de un juego no cooperativo (Dilema del prisionero) debe tener en cuenta los siguientes elementos: 1) Se deben poder configurar jugadores. 2) Cada jugador debe poder seleccionar una estrategia de juego. 3) Se debe poder definir una matriz de pagos, con el fin que los jugadores reciban recompensas basadas en las decisiones tomadas a través de las estrategias Dado la anterior, se definió el modelo conceptual presentado en la Fig. 1 para realizar la especificación de un juego no cooperativo, donde: GameMatriz: clase que administra la matriz de pagos, Player: clase que permite configurar un jugador del dilema del prisionero, Strategy: clase que administra la información de las estrategias, almacena la información previa de los jugadores participantes, StandarGame: permite simular un juego de dilema del prisionero iterado entre dos jugadores y Tournament: permite 103

105 simular un torneo Round Robin del dilema del prisionero iterado. del prisionero iterado. El trabajo de Axelrod determinó que utilizar una memoria de tres juegos previos era suficiente para decidir el próximo movimiento a ejecutar. ALLC Standardgame 1 2 +name Player execute 1 Strategy -name -description -opponentsmoves -mesmoves 1..* ALLD GameMatrix +payoffmatrix Tournament NeuralNetworkStrategy TFT HumanStrategy Con el fin de evaluar la estrategia generada, Axelrod utilizó estrategias de juegos enviadas por contrincantes humanos a dos torneos de dilema del prisionero iterado. Cada solución o estrategia de juego era puesta a jugar en un torneo Round Robin con las demás estrategias, buscando maximizar el pago obtenido basado en la matriz de pagos provista en el juego. Los resultados obtenidos determinaron que el algoritmo genético converge a la estrategia que maximiza el pago obtenido cuando se compite con otras estrategias. Las teorías utilizadas por Axelrod, son utilizadas como mecanismos para la especificación de los procesos de evolución utilizando programación genética gramatical. Fig. 1. Modelo conceptual juego no cooperativo. Algunas de las estrategias diseñadas en el simulador son: ALLC (siempre cooperar), TFT (cooperar en el primer movimiento y luego jugar como jugo el contrincante en iteración previa), GRIM (comienza jugando usando la estrategia ALLC, pero después del primero D del oponente se cambia a ALLD), STFT (igual al TFT sin embargo juega con no-cooperar en el primer movimiento), PL Strategy (se enlaza con una base de conocimiento especificada en PROLOG y le consulta sobre la decisión a tomar en cada paso de la iteración), PL Geva Strategy (se enlaza con una base de conocimiento especificada en PROLOG generada automáticamente usando PGG y le consulta sobre la decisión a tomar en cada paso de la iteración), Neural Network Strategy (permite jugar el dilema del prisionero usando red Neuronal sobre el entorno de desarrollo Neuroph). Dado lo anterior se planteó el desarrollo de un programa usando el lenguaje PROLOG [21] en el cual se especifican los hechos y las reglas que permiten deducir el próximo movimiento a ser ejecutado en un dilema del prisionero iterado. Una aparte del programa inicialmente planteado es presentado en la Fig. 2. Donde primera (X), es llamado cuando se va ejecutar la primera jugada; segunda (1,X) es llamado cuando se va ejecutar la segunda jugada si el contrincante cooperó o segunda (0,X) en el caso que el contrincante no haya cooperado; tercera (1,1, X) es llamado cuando el oponente durante las dos últimas jugadas ha cooperado; igual interpretación es realizada para el resto de los hechos tercera. Definido lo anterior, se pueden crear configuraciones de juego usando estrategias pre-configuradas o generadas por entornos de programación evolutiva. Evolución estrategias en lenguaje PROLOG. La tarea del descubrimiento de reglas ha sido abordada desde diversos paradigmas, entre ellos se encuentran los algoritmos evolutivos. Uno de los trabajos más referenciados en la literatura es el desarrollado por Axelrod [20], pionero en utilizar enfoques basados en computador; diseñó un entorno de simulación con el fin de estudiar la emergencia de la cooperación y el proceso de cambio de estrategias dentro de un marco de computación evolutiva, específicamente algoritmos genéticos. Bajo este enfoque, cada cromosoma corresponde a una estrategia de juego a usar dentro del dilema Fig. 2. Estrategia codificada en Prolog. Para las restantes jugadas se modelaron las reglas estrategia(x) las cuales infieren la decisión basadas en la información histórica de los juegos realizados por un jugador (mios) y del contrincante (oponente). Luego de tener especificado un programa en PROLOG que tuviera modelado el conocimiento que permite jugar el dilema del prisionero iterado, la pregunta que surge es cuál es el 104

106 programa en PROLOG (estrategia) que maximiza el puntaje obtenido cuando se enfrenta con otra estrategia? Para resolver el interrogante se planteó como solución la utilización de la PGG, por tal motivo se desarrolló la especificación gramatical presentada en la Fig. 3. Fig. 3. Gramática Programación genética gramatical. Donde los elementos encerrados entre corchetes (< >) corresponden a símbolos no terminales de la gramática. La gramática especificada permite el desarrollo de derivaciones gramaticales sintácticamente válidas para jugar el dilema del prisionero. Sin embargo, pueden surgir programas semánticamente inválidos, es decir, que cuando se solicita una deducción para realizar el movimiento a ejecutar en el dilema del prisionero muchas veces no se cuenta con la regla que se activa basado en los datos históricos del juego. El problema anterior se plantea resolver por medio de la función de adaptación del individuo, es decir, con cada derivación del programa se genera automáticamente un programa en PROLOG que corresponde con una estrategia de juego, la calificación obtenida depende de dos aspectos: no tener problemas semánticos, maximizar el puntaje en el juego no cooperativo. Por lo tanto, se busca minimizar el número de problemas semánticos buscando un máximo puntaje. Neuroevolución. Una red neuronal artificial consiste en una colección de elementos de procesamiento que están altamente interconectados y transforman un conjunto de entradas en un conjunto de salidas deseadas. El proceso de diseñar redes neuronales artificiales involucra dos partes: desarrollar la arquitectura y realizar un proceso de entrenamiento y validación. El desarrollo de la arquitectura involucra determinar cuántas neuronas va tener la red neuronal, cuantas capas y cómo van a ser interconectadas. Por su parte el entrenamiento se refiere al cálculo de los valores de los pesos de las conexiones. Con el fin de automatizar el proceso de generación de redes neuronales, se han aplicado mecanismos de computación evolutiva (Neuroevolución) con el fin de evolucionar pesos de las redes neuronales, arquitectura, funciones de transferencia y las entradas (buscar el conjunto de entradas óptimo) [22, 23, 24]. El planteamiento desarrollado en el presente trabajo, consistió en realizar un lenguaje de alto nivel para la especificación de perceptrones multicapa, inicialmente entrenados utilizando técnicas de aprendizaje supervisado. Es decir, la red neuronal debe aprender un conjunto de datos de entrenamiento previamente definidos, dichos datos están relacionados directamente con juegos históricos supuestos para ambos jugadores. Siguiendo los lineamientos propuestos por Axelrod se planteó la utilización de perceptrones multicapa con las siguientes características: seis neuronas en la capa de entrada, relacionadas con tres juegos previos de ambos jugadores; una neurona en la capa de salida, que determina si cooperar o no cooperar (0 ó 1) en el próximo movimiento; el número de capas ocultas, el número de neuronas, las funciones de activación, el tipo de entrenamiento deben ser determinados a través de proceso de neuroevolución. Por tal motivo, se plantea la utilización de PGG con el fin que a partir de una gramática de libre contexto se puede desarrollar especificaciones de perceptrones. Dicho lenguaje debe cumplir con una especificación gramatical, por tal motivo para la definición de la gramática se deben tener en cuenta los siguientes elementos: el usuario debe especificar el rango de elementos de la capa oculta y el rango de neuronas a utilizar en las capas ocultas. Dado que para la definición de la gramática se deben considerar los parámetros anteriormente especificados, la especificación gramatical es generada automáticamente respetando los lineamientos sintácticos del entorno de desarrollo PGG seleccionado; en el caso de la presente investigación es GEVA. En la Fig. 4 se presenta la especificación gramatical basada en los parámetros especificados por el usuario. Donde, los elementos encerrados entre (< >) corresponden a símbolos no 105

107 terminales de la gramática. Fig. 4. Especificación gramatical redes neuronales. La gramática especificada permite el desarrollo de derivaciones gramaticales sintácticamente válidas para realizar la construcción de perceptrones multicapa. Por último es importante indicar que dicha especificación obtenida debe ser traducida a un entorno de desarrollo de redes neuronales, y luego de procesos de entrenamiento, asignar como fitness el valor obtenido cuando realiza el enfrentamiento con otras estrategias. Dado que la gramática planteada permite que GEVA realice la derivación de especificación en un lenguaje de alto nivel, es necesario desarrollar un traductor entre la especificación y el entorno de desarrollo de redes neuronales Encog [25]. Por tal motivo se utilizó la herramienta de desarrollo de metacompiladores JAVACC [26], la cual permite validar la especificación léxica - sintáctica y adicionalmente integrar elementos semánticos y de generación de código. Reconocido cada uno de los elementos del lenguaje de alto nivel, se procedió a realizar la respectiva traducción; configurando de esta manera una red neuronal en Encog. especificados en PROLOG, en el cual se presentan programas realizados por medio de programación genética gramatical cuando se compite con estrategias de juegos específicas y por último configuración de redes neuronales obtenidas por procesos de neuroevolución, adaptadas para competir contra diferentes estrategias de juego. En ambos casos de obtienen los resultados esperados, es decir, aquellos que maximizan la utilidad esperada garantizando programas sintácticamente y semánticamente válidos. Las configuraciones realizadas en el entorno de programación genética gramatical GEVA fueron: generaciones: 15; tamaño de la población: 20; probabilidad de mutación: 0.02; probabilidad de cruce: 0.7; operador de cruce: SinglePointCrossover; Operador de mutación: IntFlipMutation; Operador de selección: TournamentSelect; profundidad máxima árboles: 50. La tabla de pagos con las cuales se realizaron los experimentos corresponde a la presentada en la tabla 1. Evolución estrategias en lenguaje PROLOG. Fig. 5. Estrategia para competir con ALLD. Como se puede observar cuando el contrincante no coopera, la mejor decisión que se puede tomar para maximizar el pago es no cooperar, dado que se realizan 10 juegos, el pago obtenido es de 10. Finalmente, se diseñó una clase NeuralNetworkGE que extienden de Strategy (provista por el simulador) con el fin de gestionar la red neuronal serializada y ser utilizada en competiciones entre jugadores. RESULTADOS Los resultados a presentar son divididos en dos partes: el primero relacionado con la evolución de programas Fig. 6. Competencia para competir con TFT. Como se puede observar en la Fig. 6 cuando el contrincante utiliza la estrategia TFT, la mejor decisión que se puede tomar 106

108 para maximizar el pago es la cooperación mutua, dado que se realizan 10 juegos el pago obtenido es de 30. Sin embargo, si utiliza la estrategia STFT se genera el programa de la Fig. 7, obteniendo un pago de 27. Fig. 9. Estrategia competir con ALLD CONCLUSIONES Fig. 7. Competencia para competir con STFT. Durante el proceso de evolución se obtienen el conjunto de reglas aplicar, con el fin de maximizar la utilidad esperada, es importante indicar que cuando se realiza un proceso de unificación (Prolog), en este trabajo solo se toma la primera obtenida durante la consulta. Neuroevolución. Para realizar el proceso de neuroevolución, como se especificó en la gramática de la Fig. 5, el máximo número de capas ocultas es 4, con un número de neuronas máximo de 10 La programación genética gramatical obtuvo resultados satisfactorios; a pesar que el espacio de búsqueda es tan amplio para encontrar un programa correcto (léxica, sintáctica y semántico) la técnica converge; lo más importante es determinar una correcta función de adaptación. Una característica importante identificada es la simplicidad de programas que puede encontrar, lo que disminuye tiempos de compilación y de inferencia en el caso de lenguajes de primer orden. Los resultados experimentales garantizan que la evolución de estrategias usando técnicas metaheurísticas aseguran la maximización de pagos, lo que indica que agentes con racionalidad limitada y sin supuestos tan fuertes como los utilizados en la teoría de juegos clásica, pueden originar y adaptar estrategias en ambientes competitivos. REFERENCIAS Fig. 8. Red neuronal para competir con ALLC. En la Fig. 8 se muestra una configuración de redes neuronales posibles para enfrentarse contra la estrategia ALLC. Obtener un resultado de 30, indica que existió cooperación mutua (Fit: 30.0). En la Fig. 9 se muestran la configuración de la red neuronal obtenida para enfrentarse contra la estrategia ALLD. Obtener un resultado de 10 (Fit: 10.0), indica que no existió cooperación mutua. [8] Sally, H.A. and Muhammad, R.M.A.;, "A survey of Game Theory using Evolutionary Algorithms," Information Technology (ITSim), 2010 International Symposium in, vol.3, no., pp , June 2010 [9] Hargreaves-Heap and S. and Varoufakis Y. Game Theory: A critical text, London and New York: Routledge, [10] H Neumann J. von and Morgenstern O, Theory of Games and Economic Behavior. Princeton, NJ: Princeton Univ. Press, [11] Aumann R.J. and Hart S, Handbook of Game Theory with Economic Applications, edition 1, volume 2, chapter 28, pages Elsevier, [12] E Vincent T. L. and Brown J.S, Evolutionary Game Theory, Natural Selection, and Darwinian Dynamics, Cambridge University Press, [13] Tesfatsion Leigh. Agent-Based Computational Economics: A Constructive Approach to Economic Theory, Handbook of Computational Economics, 2006 [14] Kurt Dopfer and John Foster and Jason Potts, Micro-meso-macro, Journal of Evolutionary Economics, 2004 [15] Kumar Chellapilla and David Fogel, Evolution, Neural Networks, Games, and Intelligence, Proceedings of the IEEE, Vol. 87:9, Sept., pp ,

109 [16] XiangHua Jin and DongHeon Jang and TaeYong Kim and Chung-Ang Univ, Evolving Game Agents Based on Adaptive Constraint of Evolution, International Conference on Convergence Information Technology, 2007 [17] Rivero D and Dorado J and Rabunal J and Pazos A. Generation and simplification of Artificial Neural Networks by means of Genetic Programming, Neurocomputing, Volume 73, Issues 16-18, 10th Brazilian Symposium on Neural Networks (SBRN2008), Pages , ISSN , 2010 [18] Ioannis Tsoulos and Dimitris Gavrilis and Euripidis Glavas, Neural network construction and training using grammatical evolution, Neurocomputing, Volume 72, Issues 1-3, Machine Learning for Signal Processing (MLSP 2006) / Life System Modelling, Simulation, and Bioinspired Computing (LSMS 2007), Pages , ISSN , 2008 [19] Siang Yew Chong Xin Yao, Multiple Choices and Reputation in Multiagent Interactions, Evolutionary Computation, IEEE Transactions, 2007 [20] Yau Y.J. and Teo J. An Empirical Comparison of Non-Adaptive, Adaptive and Self-Adaptive Co-evolution for Evolving Artificial Neural Network Game Players IEEE International Conference on Cybernetics and Intelligent Systems (CIS 2006), pages , Bangkok, Thailand, June [21] Brunauer R, Löcker A, Helmut A, "Evolution of iterated prisoner's dilemma strategies with different history lengths in static and cultural environments", ACM Symposium on Applied Computing,2007 [22] Chiong, R, Applying genetic algorithms to economy market using iterated prisoner s dilemma. In Proceedings of the 22nd Annual ACM Symposium on Applied Computing (pp ). Seoul, Korea: ACM Press. [23] Errity A, "Evolving Strategies for the Prisoner's Dilemma", Technical Manual, Faculty of Computing and Mathematical Sciences Dublin City University [24] Louden, Kenneth C, Construcción de compiladores: principios y práctica, Thomson, [25] Koza, John R, Genetic Programming: On the Programming of Computers by Means of Natural Selection (Complex Adaptive Systems), The MIT Press, [26] Hemberg Erik and Gilligan and Conor and O Neill, Michael and Brabazon, Anthony, A Grammatical Genetic Programming Approach to Modularity in Genetic Algorithms, Springer Berlin / Heidelberg, [27] Mitchell M, An Introduction to Genetic Algorithms, MIT Press, 1998 [28] Sterling L and Shapiro E, The Art of Prolog, The MIT Press, 2E, [29] Herbrich R and Keilbach M and Graepel T and Bollmann-Sdorra P and Obermayer K, Neural Networks in Economics: Background, Applications and New Developments, in Advances in 21 Computational Economics: Computational Techniques for Modelling Learning in Economics, Kluwer Academics, [30] Chellapilla K and Fogel D.B., "Evolution, neural networks, games, and intelligence", Proceedings of the IEEE, vol.87, no.9, pp , Sep [31] Lum R and Meighan M and Alfaro H. Using NEAT to Train a Player for the Iterated Prisoner s Dilemma, Machine Learning FALL [32] Heaton J, Programming Neural Networks with Encog2 in Java, Heaton Research [33] Copeland Tom, Generating Parsers with JavaCC, 2 Ed, Centennial Books

110 Propuesta de una metodología practica Post- Mortem de análisis digital forense Leonard David Lobo Parra y Dewar Rico Bautista, Semillero de Investigación GNU/Linux And Security (SIGLAS), Universidad Francisco de Paula Santander Ocaña (U.F.P.S.O.) Abstract El presente artículo busca establecer la efectividad de la metodología post-mortem dentro de la realización de un análisis digital forense. Existen dos maneras para realizarla. En primera instancia se encuentra la metodología en caliente o en vivo, donde el equipo o terminal a analizar se encuentra encendida, por consiguiente los programas en ejecución son visibles y la totalidad de la funcionalidad de la maquina, no obstante, también están latentes las trampas del atacante que pudieran dejar fuera de servicio el equipo u ocultar el ataque en sí mismo. La segunda metodología, la post-mortem realiza el análisis sobre los log del sistema y diversos rastros que deja el atacante, específicamente el análisis es realizado a el disco duro del equipo, pero también es posible hacerlo a dispositivos de almacenamiento como USB, discos flexibles, discos de DVD, entre otros. Linux permite hacer copias bit a bit, donde cada uno de los rastros y archivos presente en el disco original serán transmitidos a su copia, permitiendo así no solo analizar el time line de sucesos sino también los archivos en detalle puesto que las diversas técnicas de esteganografía ocultan mucha información del atacante y que pueden ser vitales en investigaciones como las policiales. [1] [2] Cuando el análisis se realiza sobre el disco duro es importante tener en cuenta que la forma de apagado es sumamente importante, así como también la forma en la que se adquiere, preserva y analizar la información (cadena de custodia), puesto que de ello depende la credibilidad y fiabilidad que esta pueda llegar a tener en un estrado judicial como prueba científica. Para realizar todo el proceso de peritaje informático es indispensable contar con herramientas que faciliten y viabilicen el proceso, se describirá el uso de la distribución BACKTRACK 5 r1 [3] [4], dentro de la cual Tool Forensic proporciona una variada gama de herramientas forenses, de las cuales las de carving y Suit Forensic con The Sleuth Kit y su interfaz grafica Autopsy, como principales para realizar el trabajo. obstante, también están latentes las trampas del atacante que pudieran dejar fuera de servicio el equipo u ocultar el ataque en sí mismo. La segunda metodología, la post-mortem realiza el análisis sobre los log del sistema y diversos rastros que deja el atacante, específicamente el análisis es realizado al disco duro del equipo, pero también es posible hacerlo a dispositivos de almacenamiento como USB, discos flexibles, discos de DVD, entre otros. Linux permite hacer copias bit a bit, donde cada uno de los rastros y archivos presente en el disco original serán transmitidos a su copia, permitiendo así no solo analizar el time line de sucesos sino también los archivos en detalle puesto que las diversas técnicas de esteganografía ocultan mucha información del atacante y que pueden ser vitales en investigaciones como las policiales. [1] [2] Cuando el análisis se realiza sobre el disco duro es importante tener en cuenta que la forma de apagado es sumamente importante, así como también la forma en la que se adquiere, preserva y analizar la información (cadena de custodia), puesto que de ello depende la credibilidad y fiabilidad que esta pueda llegar a tener en un estrado judicial como prueba científica. Para realizar todo el proceso de peritaje informático es indispensable contar con herramientas que faciliten y viabilicen el proceso, se describirá el uso de la distribución BACKTRACK 5 r1 [3] [4], dentro de la cual Tool Forensic proporciona una variada gama de herramientas forenses, de las cuales las de carving y Suit Forensic con The Sleuth Kit y su interfaz gráfica Autopsy, como principales para realizar el trabajo. Index Terms Acceso a la información, Análisis digital forense, Copia Bit a Bit, Log de sistema, Protección de datos, Red informática, Sistema informático, Transmisión de datos INTRODUCCION Index Terms Acceso a la información, Análisis digital forense, Copia Bit a Bit, Log de sistema, Protección de datos, Red informática, Sistema informático, Transmisión de datos Abstract El presente artículo busca establecer la efectividad de la metodología post-mortem dentro de la realización de un análisis digital forense. Existen dos maneras para realizarla. En primera instancia se encuentra la metodología en caliente o en vivo, donde el equipo o terminal a analizar se encuentra encendida, por consiguiente los programas en ejecución son visibles y la totalidad de la funcionalidad de la maquina, no C on la llegada de la sistematización de procesos, las diversas corporaciones y empresas pasaron a tener toda su información digital, con lo cual se agilizaron e hicieron mucho más eficientes los procesos; no obstante, esto trajo un nuevo problema, y este fue la seguridad puesto que con la instauración de la información como principal activo de las empresas, también se hizo el mas apetecido por los atacantes. Si hay algo claro en el mundo de la información es que no existe un sistema que sea totalmente seguro, y se presentan 109

111 incidentes de seguridad, ante los cuales las preguntas son muchas Cual fue el origen del ataque? Qué implicaciones tuvo el incidente? Qué medidas son necesarias para evitar situaciones similares en el futuro? [5] [6] [7] [8] [9] legales se referirá al termino forense solo como parte del marco. Fig 1. Capas del análisis basado en el diseño digital de datos. [15] Es entonces cuando el análisis digital forense hace su aparición para despejar todas las dudas, puesto que durante, y después del incidente fuere cual fuere su origen, el atacante deja rastros, los cuales son habidos de ser estudiados tanto en entornos de red como en el espacio local de la terminal atacada, así mismo la memoria RAM y demás dispositivos que puedan albergar información como lo son smartphones, impresoras, memorias USB, discos flexibles, DVD entre otros, son medios habidos de ser analizados. [10] [11] [12] [13] [14] El análisis forense se puede abordar desde distintas perspectivas tanto desde el diseño de los datos como desde la parte física que en última instancia estaría dirigido al final al nivel de aplicación (File System Analysis, Brian Carrier) Una vez definida la perspectiva del análisis digital forense (análisis a sistemas de información, análisis a redes, análisis a dispositivos móviles, análisis a dispositivos de almacenamiento), es importante especificar una metodología la cual debe estar fundamentada en estándares investigativos y legislación del país, y justamente en referencia al tema legal es más que pertinente citar autores como EUGENE EPAFFORD [31] o BRIAN CARRIER en su célebre File System Analysis, quienes afirman que es preferible para efectos investigativos obviar el termino forense pues este hace alusión a la legislación de el o los países donde se realiza el estudio, y por otro lado en un entorno de investigación corporativo el termino forense pierde sentido; a pesar de ello existen diferentes modelos y estándares investigativos que al margen del proceso legal proporcionan un buen contexto investigativo. En el presente artículo y teniendo en cuenta los aspectos Fig 2. Proceso del análisis de datos desde el nivel físico al nivel de aplicación. [15] Para efectos del presente estudio se tuvo en cuenta tanto el aspecto físico como el de datos, pero entendiendo al primero como la introducción lógica al segundo y de este modo se usa un análisis desde el nivel físico al nivel de aplicación, ya que desde la metodología post-mortem es necesario acceder al dispositivo de almacenamiento y de este modo poder indagar la información o más bien el contenido de dicho dispositivo puesto que el análisis no necesariamente va enfocado a la información en si misma sino mas bien a la manipulación que sobre esta y el sistema mismo se realiza. DESARROLLO Una vez identificado el tipo de análisis en cuanto a su perspectiva y si es en caliente o post-mortem; así las cosas es necesario hacer referencia a la adquisición misma de las evidencias, lo cual remite a la metodología la cual para este caso es la metodología Casye, así como también se apoya en el Modelo de Referencia de Descubrimiento Electrónico (EDRM). El modelo de Casey ha evolucionado desde el primer modelo presentado en el 2002 por Eoghan Casey, hasta el modelo publicado en el 2004 en la segunda edición de su libro [16] que recoge los siguientes pasos: Autorización y preparación Identificación Documentación, Adquisición y Conservación Extracción de Información y Análisis 110

112 Reconstrucción Publicación de conclusiones Fig 3. Modelo de Referencia de Descubrimiento Electrónico (EDRM ) [16] El proceso puede verse en la Fig 4, cada flecha indica el flujo de información, de modo que la información que se obtiene en una etapa sirve para la Siguiente y viceversa. En cualquier momento se puede usar lo que se sabe en una etapa para volver a la etapa anterior y obtener más datos. Toda la información generada se guardará como documentación que servirá para la publicación final. Para efectos prácticos se basará en las etapas de extracción y análisis, a pesar del hecho que las otras son fundamentales, la necesidad de señalar unos pasos claros dentro de lo que es el estudio practico del análisis forense justifica dicha decisión. control que se deben tener, pues cualquier imprecisión en las mismas puede llevar a comprometer el proceso bien sea legal u organizacional [18], de este las cosas modo es preciso referirse a algunos elementos que deben ser considerados para mantener la idoneidad del procedimiento forense adelantado [19]: 1. Esterilidad de los medios de informáticos de trabajo 2. Verificación de las copias en medios informáticos 3. Documentación de los procedimientos, herramientas y resultados sobre los medios informáticos analizados 4. Mantenimiento de la cadena de custodia de las evidencias digitales. 5. Informe y presentación de resultados de los análisis de los medios informáticos 6. Administración del caso realizado 7. Auditoría de los procedimientos realizados en la investigación Dentro de estos elementos llaman singular atención los puntos 3 y 4, puesto que al ser este un análisis digital forense es necesario tener en cuenta que dicha investigación es un proceso que utiliza la ciencia y la tecnología para analizar los objetos digitales y que desarrolla y prueba las teorías, las cuales pueden ser introducidos en un tribunal de justicia, para responder a preguntas sobre hechos ocurridos [15], ante lo cual se hace propicio mencionar el marco jurídico colombiano ya que de este marco depende tal enfoque; la ley 1273 de 2009, reglamenta la protección de la información y los datos. Por otro lado la ley 906 junto con la ley 527 de 1999 reglamenta lo métodos y la evidencia digital respectivamente [20]. Fig 4. Esquema del modelo Casey [16] Evidencia Digital La evidencia digital es cualquier información que, sujeta a una intervención humana u otra semejante, ha sido extraída de un medio informático [17], así mismo considerando la fragilidad esta, es preciso extremar las medidas de seguridad y Herramientas forenses Para la realización de la presente investigación se ha trabajado con Autopsy Forensic Browser [21], la cual es una interfaz gráfica para la herramienta de análisis digital The Sleuth Kit (TSK). Ambos pueden analizar sistemas de ficheros Windows y UNIX (NTFS, FAT, UFS1/2, Ext2/3). The Sleuth Kit y Autopsy son de Código Abierto y funcionan sobre plataformas UNIX. Ya que Autopsy está basado en HTML, se puede conectar al servidor Autopsy desde cualquier plataforma usando un navegador HTML. Proporciona una interfaz de tipo gestor de ficheros y muestra detalles sobre datos borrados y estructuras de sistema de ficheros. 111

113 se indica la fuente de los datos, con la bandera of= se especifica el fichero de salida. Por ejemplo, para copiar el contenido de archivo1.dat (cuyo tamaño es 1024 bytes) a archivo2.dat utilizando bloques de 512 bytes ejecutaremos en un terminal la orden [24]: Fig 6. Ejemplo del comando DD [16] Análisis en caliente vs Post-mortem Fig 5. Interfaz Autopsy Forensic Browser Fuente: Autores del proyecto Los Tools que componen TSK son los siguientes [21]: 1. Herramientas de disco; 2. Herramientas de volúmenes de sistema; 3. Herramientas de sistema de archivos. Dentro de este último vale la pena mencionar las características respecto al análisis de la categoría de sistema de archivo, categoría de contenido, categoría de metadatos, categoría de nombre de archivo, categoría de aplicación y finalmente una última de búsqueda. Es por esta amplia funcionalidad y su carácter de software libre que se constituyo como la herramienta fundamental en el estudio. Por otro lado vale la pena resaltar la importancia del comando UNIX DD el cual permite realizar el volcado de la imagen de un dispositivo de almacenamiento, pero lo hace a bajo nivel y bit a bit creando una copia idéntica del objeto de estudio. Así mismo cabe resaltar que la Computer Forensic Tool Testing (CFTT) y la National Institute Of Standards And Technology (NIST) lo recomiendan puesto que cumple con [15] [22] [23]: 1. Mantener la integridad del disco 2. Registrar errores del I/O 3. Hacer un duplicado de la partición o disco mediante Bit Stream 4. Posee documentación de ayuda. Según Brian Carrier [15] la única diferencia entre el análisis en caliente y el post-mortem es la fiabilidad de los resultados. Los mismos tipos de datos pueden ser analizados utilizando ambas técnicas de análisis, pero los métodos en caliente dependen de las aplicaciones que podrían haber sido modificadas para producir datos falsos. Dicha apreciación remite a un cuestionamiento interesante puesto que en el análisis forense la fiabilidad es algo fundamental, razón por la cual el análisis Post-mortem adquiere un peso significativo; no obstante en el contexto actual resulta sumamente costoso para muchas compañías el apagar sus servidores o desconectar sus servicios ante la sospecha de un ataque, de tal modo que el análisis en caliente resultaría muy adecuado. Existen varios inconvenientes a la hora de examinar un sistema vivo, como por ejemplo que no se esté viendo lo que hay en realidad. Los rootkits modernos pueden ocultar datos y procesos fácilmente, implementando hooks a nivel de kernel por ejemplo. Un sistema muerto es más fácil de examinar, pudiéndose garantizar que después de su apagado no se han modificado o eliminado pruebas acerca del estado en que se encontraba el sistema. Ahora bien, el análisis post-mortem involucra ciertos procedimientos como los son el generar una copia bit a bit del sistema afectado, lo cual se puede realizar bien sea mediante un live cd, o mediante la extracción del disco a examinar y posterior instalación en un ambiente seguro, pero nunca corriendo el sistema como tal pues esto conllevaría a modificaciones por parte de aplicaciones programadas para tal efecto. La verificación de la fiabilidad de la evidencia digital pude ser realizada a través de los hashes criptográficos (MD5 y SHA256). Este comando copia bloques de datos de un fichero a otro, no tiene en cuenta el tipo de datos que esta copiando y no entiende de sistemas de archivos, ni volúmenes, sólo archivos. El tamaño del bloque por defecto es de 512 bytes (se puede modificar utilizando la bandera bs=). Utilizando la bandera if= Hashes criptográficos El contenido de un disco, archivo individual, o cualquier conjunto de datos digitales son, esencialmente, secuencias de 112

114 bits. Para determinar si dos conjuntos de datos son (o no son) idénticos, puede llevar a cabo una completa comparación bit a bit. Cada bit de la secuencia de datos original es comparado con el bit correspondiente en la copia. Cualquier discrepancia indica que las copias no son idénticas y que la evidencia obtenida a partir de la copia forense no es fiable en un procedimiento judicial o una investigación científica. La herramienta The Sleuth Kit, al igual que la gran mayoría de los tool de forense contienen verificación mediante el hash MD5 Sum, [16]. Básicamente, el algoritmo MD5 divide un mensaje en bloques e iterativamente procesa cada bloque mediante la realización de cálculos en un buffer de entrada y el bloque. La de salida de cada iteración es la memoria intermedia de entrada a la siguiente iteración. Los cálculos y la naturaleza del resultado algoritmo iterativo en un valor hash que es muy sensible a incluso un solo bit de modificación. Cuando se realizan resúmenes hash [25] de imágenes hay que tener en cuenta que lo ideal es almacenar dichos valores hash de manera separada. Imaginen que se utilizan una imagen de formato embebido: si alguien accede a ella y modifica los datos puede perfectamente recalcular los valores hash e intercambiarlos con los verdaderos. Si los valores hash se almacenan aparte este tipo de modificaciones siguen siendo posibles, pero más difíciles de realizar. * Adquisición del disco o medio de almacenamiento * Análisis de volúmenes * Análisis de sistema de archivos Adquisición del disco o medio de almacenamiento Fundamentalmente el objetivo en esta etapa es la de conseguir el volcado del disco a estudiar en una imagen que sea exactamente igual bit a bit. Esto permitirá recuperar archivos borrados en cada partición, pero no es capaz de analizar los sectores que no están asignadas a las particiones puesto que un disco que tiene particiones DOS no puede utilizar los sectores 1 a 62, que podrían contener datos ocultos. Si se adquiere el nivel de volumen, los datos ocultos se perderán. Si el copiado se realizara desde el nivel de aplicación utilizando una utilidad de copia de seguridad y se copian los archivos sólo asignados. En este caso, se haría pero no es capaz de recuperar archivos borrados, es posible que no tenga acceso a todos los datos temporales, y no sería capaz de encontrar datos que han sido escondidos dentro de los datos del sistema de partición o una estructura de archivos. La extracción formalmente dicha se realiza mediante la utilidad DD, una vez adquirida la imagen se debe verificar el hash mediante la utilidad MD5Sum, como lo muestra la Fig 7. Arquitectura del análisis Para el presente estudio se han considerado diversos escenarios, cada uno de los cuales comparte la similitud de ser imágenes extraídas a partir de sistemas apagados o de dispositivos de almacenamiento, como discos, imágenes usb, e incluso imágenes proporcionadas por retos forenses. Por ejemplo una terminal computacional cuya integridad fue comprometida, así mismo en este caso se determina que la concepción del análisis se realizara fundamentada exclusivamente en el disco duro de la misma. Así mismo este equipo estará encendido en el momento del análisis, y puesto que se sospecha que el atacante ha dejado algún tipo de bomba lógica o script de limpieza, [25] entonces la elección será optar por tirar del cable de alimentación. Fases procedimentales Al remitirse a Brian Carrier en su robusto FILE SYSTEM FORENSIC ANALYSIS, la investigación en lo puntual debe pasar por las siguientes etapas: Fig 7. Verificación Hash con MD5Sum Fuente: Autores del proyecto Análisis de volúmenes La arquitectura de volúmenes y particiones indica cierta jerarquía donde las particiones son por defecto volúmenes y cumplen funciones específicas dentro del sistema. 113

115 Una vez identificadas las particiones del volumen y los espacio no asignados, se procede a la extracción mediante la herramienta DD, que permite establecer de donde a donde se realiza la extracción y se toma el punto de inicio hasta el tamaño de la misma. Fig 8. Ejemplo de de distribuciones de un volumen en 3 particiones. [15] Fig 11. Extracción de particiones. [15] Fig 12. Recuperación de particiones Fuente: Autores del proyecto Fig 9. Análisis de Volúmenes con The Sleuth KIt Fuente: Autores del proyecto Ahora bien, compete establecer si existe espacio en disco sin asignar, establecer el inicio y finalización de las particiones y archivos, así como también el establecer si hay particiones corruptas o eliminadas en cuyo caso la intención es repararlas y recuperarlas. Usualmente el investigador realiza dichas etapas mediante herramientas automatizadas sin percatarse como lo muestra la Fig 9. Pero lo cierto es que para garantizar un estudio preciso es necesario verificar esta fase del análisis de un modo manual. En este orden de ideas lo primero es verificar la integridad del volumen en cuanto a la asignación de espacio, para lo cual el comando mmls es el indicado. Fig10. Lista de contenidos de la tabla de partición. [15] No se debe olvidar que es posible que las peticiones estén corruptas o existan algunas que estén borradas y sea posible recuperarlas, esto es posible mediante la herramienta Gpart, la cual identifica los posibles tipos de archivo mediante un testeo a los sectores para establecer cuál es el tipo de sistema de archivo más probable. Una herramienta similar pero tal vez un poco más especializada para este proceso es testdisk [25]. Análisis de sistemas de archivos Los computadores necesitan un método para el almacenamiento a largo plazo y la recuperación de datos. Los sistemas de ficheros proveen un mecanismo para que usuarios almacenen datos en una jerarquía de archivos y directorios. Un sistema de ficheros consta de datos de su estructura y de los datos de usuario, que están organizados de tal manera que la computadora sepa dónde encontrarlos. En la mayoría de los casos, el sistema de ficheros es independiente de cualquier computadora específica. El análisis de sistema de archivo posee ciertas sub categorías que conducen a formar una idea clara de lo que sucede: 114

116 Análisis de sistema de ficheros kb (2048 bytes). El offset de byte de cada unidad de la unidad de datos 10 está en el kb 20 (20480 bytes). [26] Fig 13. Análisis de sistema de ficheros con The Sleuth KIt Fuente: Autores del proyecto Los datos de esta categoría son normalmente valores individuales e independientes. Por lo tanto no hay mucho que hacer con ellos, salvo mostrarlos o usarlos en una herramienta. Si se están recuperando datos, la información que contiene puede ser útil. Si se trata de determinar en qué computadora fue creado el sistema de ficheros, un ID de volumen o su versión puede ser de utilidad. Las estructuras de datos de esta categoría frecuentemente tienen valores no usados y direcciones de almacenamiento que podrían esconder pequeñas cantidades de datos. Un chequeo de la consistencia en esta categoría consiste en comparar el tamaño del sistema de ficheros con el tamaño del volumen en el que se encuentra. Si el volumen es más grande, los sectores que se encuentran después del sistema de ficheros son llamados volume slack y puede ser usado para ocultar datos. Fig 14. Análisis de sistema de ficheros con The Sleuth KIt Fuente: Autores del proyecto Análisis de la categoría de meta-dados En muchos casos, se analizan los metadatos porque se encuentra el nombre de un fichero que apunta a una estructura de metadatos específica y se quiere aprender más sobre el fichero. Por lo tanto, necesitamos ubicar los metadatos y procesar su estructura de datos. Por ejemplo, si se busca a través de los contenidos de un directorio y se encuentra un fichero llamado secretos.txt, se puede querer saber su contenido y cuando fue creado. Análisis de la categoría de contenido Esta técnica se usa cuando se conoce la dirección donde puede estar la evidencia, tal como una asignada a un fichero específico o una que tiene un especial significado. Por ejemplo, en muchos sistemas de ficheros FAT32, el sector 3 no es usado por el sistema de ficheros y está lleno de ceros. Es fácil esconder datos en este sector, y por tanto, visualizando el contenido del sector 3 se puede ver si ha sido modificado si no está lleno de ceros. La teoría que encierra este tipo de análisis es simple. El investigador introduce la dirección lógica del sistema de ficheros de una unidad de datos y una herramienta calcula la dirección del byte o sector de la unidad de datos. La herramienta busca la localización y lee los datos. Por ejemplo considere un sistema de ficheros donde la unidad de datos 0 empieza en el byte con offset 0, y cada unidad de datos tiene 2 Fig 15. Análisis de metadadtos con The Sleuth KIt Fuente: Autores del proyecto La mayoría de las herramientas automáticamente realizan esta búsqueda cuando se listan los nombres de fichero en un directorio y permiten ordenar la salida basándose en los 115

117 valores de meta-datos. Los procedimientos exactos para esta técnica dependen del sistema de ficheros porque la meta-dato podría estar en varios lugares del sistema de ficheros. Después de buscar la metadato de un fichero, se puede ver los contenidos del fichero leyendo las unidades de datos asignadas al fichero. Se hará esto cuando se esté buscando evidencias en el contenido de un fichero. Fuente: Autores del proyecto Análisis de la categoría de nombre del fichero En la categoría de Meta-datos que los ficheros borrados pueden recuperarse usando sus meta-datos. Ahora usaremos el nombre del fichero borrado y sus correspondientes direcciones de meta-datos para recuperar el contenido del fichero usando recuperación basada en meta-datos. En otras palabras, la parte difícil se hace en la capa de meta-datos, y todo lo que se tiene que hacer en esta capa es identificar las entradas de meta-datos en las cuales enfocar nuestra atención. [27] Análisis de la categoría de aplicación Este es un proceso donde una porción de datos es examinada para buscar firmas que correspondan al inicio o final de tipos de ficheros conocidos. El resultado de este proceso de análisis es una colección de ficheros que contienen una de las firmas. Esto se realiza normalmente en el espacio no asignado de un sistema de ficheros y permite al investigador recuperar que no tienen estructura de meta-datos apuntando a ellos. Fig 16. Análisis de palabras clave con The Sleuth KIt Valoraciones altas Herramientas de apoyo Valoraciones bajas Fig 17. Construcción de la metodología propuesta. Fuente: Autores del proyecto 116

118 Metodología propuesta Dentro de la gran cantidad de enfoques y conceptos que encierra el análisis forense, es claro que la implementación de una metodóloga practica que indique de modo directo la forma en la cual realizar la investigación, constituye poco menos que una quimera pues la complejidad misma del estudio impediría tal iniciativa, pero a pesar de ello se pudieron ahondar esfuerzos para proponer una guía que indique los pasos tanto metodológicos como prácticos en un sentido amplio que permita al investigador partir de un punto claro; fundamentándose en la metodología Casey 2000 y el modelo del Electronic Discovery Reference Model (EDRM). [28] [29] [30] SELECCIÓN DE HERRAMIENTA Software libre: dentro de los aspectos planteados al inicio de la investigación el software constituye uno de los más importantes, y es por tal que se aplica un mayor puntaje a aquellas herramientas que poseen esta característica. Soporte: si la herramienta escogida para el estudio posee un soporte actualizado, constituye prenda de garantía en aras de validar las evidencias o hallazgos dentro del estudio. Impacto sobre el sistema: una buena herramienta de análisis digital debe hacer un mínimo o ningún impacto sobre el sistema pues esto corrompe la evidencia. Plataformas soportadas: Es muy común encontrarnos con análisis de ataques o incidentes en sistemas operativos Linux, Windows, ios entre otros, por lo cual la herramienta seleccionada debe cubrir la mayor cantidad de sistemas operativos. El análisis forense requiere de una gran cantidad de elementos para su ejecución, además de la experticia del investigador, es fundamental contar con las herramientas lógicas que proporcionen un apoyo confiable, pues es en este aspecto que la investigación descarga la mayor parte de los elementos sensibles. El proceso de selección de la suit forense empleada en esta investigación se fundamento en aspectos tanto prácticos como funcionales y teóricos. Teniendo en cuenta que la investigación se realiza en el contexto de la universidad Francisco de Paula Santander Ocaña, y más específicamente del semillero SIGLAS (Gnu/ Linux And Security), era prioritario que la herramienta/s seleccionada fuese basada en software libre; partiendo de este hecho, a continuación se desglosan los ítems evaluados en la selección: Orientación al análisis forense con la metodología post mortem: en este numeral se pretende establecer si la herramienta soporta el uso de imágenes bit a bit para realizar el estudio, y así mismo si sus opciones de indagación no requieren del sistema en ejecución. Pues es posible realizar un análisis post mortem sin requerir extraer una imagen bit a bit. Sistema operativo Linux: Es una de las premisas que la herramienta escogida funcione sobre el sistema operativo Backtrack. Accesibilidad/disponibilidad: el poder adquirir la herramienta con facilidad (descargar, costos, etc) es un aspecto prioritario. CONCLUSIONES A lo largo de la presente investigación se han realizado diversos laboratorios y reconstruido escenas de retos forenses para establecer la efectividad y alcances de el análisis digital forense mediante la metodología pos-mortem, y lo cierto es que esta muestra notorias ventajas con referencia a la metodología en caliente, ya que libra la posibilidad de activar bombas lógicas o rootkits que el atacante pudo implantar en el sistema, así mismo establece un minucioso proceso para la recolección identificación y estudio de las evidencias el cual se fundamenta tanto en estándares internacionales como el RFC3227, el estándar de la EDRM, metodologías como la Casey y obviamente el marco legal colombiano. Por otro lado la fiabilidad de la 117

119 evidencia no volátil se ve ligeramente opacada por la vigencia inmediata que los datos como los que residen en la memoria, puesto que pueden podrían proporcionar pistas para que de otro modo sean prácticamente imposibles de adquirir. Un aspecto sumamente importante que resulta de este análisis, lo constituye el hecho de que de cierto modo los procedimientos metodológicos son muy claros y existen muchos, no obstante, una guía de que hacer no es desglosado de una manera significativa, razón por la cual se puede concluir que esta fue una del as premisas fundamentales a la hora de establecer este estudio, pues el investigador forense debe, en la mayoría de los casos adquirir sus conocimiento a partir de la experiencia y esto definitivamente es algo sumamente productivo, pero la intención era establecer un marco de inicio a quien desease completar una investigación forense. PLATAFORMAS SOPORTADAS HERRAMIENTA ORIENTACION AL POST-MORTEM SOFTWARE LIBRE SOPORTE IMPACTO SOBRE EL SISTEMA LINUX WINDOWS MAC PUNTOS S.O. (LINUX) ACCESIBILIDAD/DISPONIBILIDAD PUNTAJE LINReS SMART, by ASR Data Macintosh Forensic Software BringBack de Tech Assist, Inc EnCase, by Guidance Software FBI, by Nuix Pty Ltd Forensic Toolkit (FTK), de AccessData ILook Investigator Safeback de NTI & Armor Forensics X-Ways Forensics, de X-Ways AG Prodiscover, de Techpathway AFFLIB Autopsy FOREMOST The Sleuth Kit The Coroner's Toolkit (TCT) Zeitline Fig 18. Comparación de herramientas forense. Fuente: Autores del proyecto AGRADECIMIENTOS A la Universidad Francisco de Paula Santander Ocaña (UFPSO), mediante la División de Investigación y Extensión (DIE) porque vincula a docentes, administrativos y estudiantes para que participen en la ejecución y desarrollo de proyectos de investigación. Este articulo muestra resultados de una fase del proyecto inscrito, avalado y financiado en dicha dependencia llamado Seguridad en redes, propuesto a través del Grupo de Investigación en Desarrollo Tecnológico en Ingenierías (GITYD), que responde a su línea de investigación Redes, Seguridad y Telecomunicaciones y a su Semillero de Investigación GNU/Linux And Security (SIGLAS). REFERENCIAS [1] F. Carazo, Ubuntu Linux: Instalación y configuración básica en equipos. Bogotá, Colombia: Editorial Ra-ma, [2] R. PETERSEN, Linux: Manual de Referencia. Mexico D.F.: McGraw-Hill, 2009, pp [3] BackTrack Linux Penetration Testing Distribution BackTrack. [Online]. Available: [4] E. Saiz, BackTrack 4 una distribución Linux para expertos en seguridad. [Online] Available: [5] J. Lobo and D. Rico. Implementación de la seguridad del protocolo de internet versión 6. REVISTA GERENCIA TECNOLOGÍA INFORMÁTICA. Informatics Technology Management. (29), [6] Internet Enginnering Task Force. RFC 4301, Security Architecture for the Internet Protocol. [Online]. Available: [7] D. Rico and L. Jaimes. Seguridad de Protocolo de Internet: Estado Del Arte. Revista INGENIO, Vol. 2 No 1. ISSN X, [8] D. Rico and L. Jaimes. IPv6 EN LA UNIVERSIDAD DE PAMPLONA: ESTADO DEL ARTE. Revista Scientia et Technica Año 2007, No 37, Septiembre ISSN , [9] D. Rico and L. Jaimes. IPSec DE IPv6 EN LA UNIVERSIDAD DE PAMPLONA. Revista Scientia et Technica, No 39, Septiembre UTP. ISSN , [10] J. Carracedo, Seguridad en redes telemáticas. Madrid, España: McGraw-Hill, 2004, pp [11] J. Echenique, Auditoría en Informática. Madrid, España: McGraw-Hill, [12] R. KRUTZ and R. VINES, The CEH Prep Guide: The Comprehensive Guide to Certified Ethical Hacking. Wiley Publishing: [13] S. Mcclure, J. Scambray, and G. Kurtz, HACKERS 6: Secretos y soluciones de seguridad en redes. Mexico D.F.: McGraw-Hill, [14] W. Stallings, Network security essentials applications and standards, fourth edition. Prentice Hall. Año

120 [15] B. Carrier. File system forensic analysis. Editorial: Addison Wesley.ISBN-10: [16] E. Casey. Digital Evidence and Computer Crime: Forensic ScienceComputers, and the Internet. Segunda edición, Academic Press 2004, ISBN: [17] HB: Guidelines for the Management of IT Evidence, la evidencia digital. [18] R. Taylor, T. Caeti, D. Kall loper, E. Fritsch y J. Liederbach. Digital crime and digital terro-rism. Pearson Prentice Hall. Cap. 11 y [19] J. Cano. Introducción a la informática forense. Revista Sistemas ACIS No 96. [20] ICANN 39 Desafíos Cibernéticos en Colombia. [21] Graphical interface to The Sleuth Kit. [22] C. Wysopal, L. Nelson, D. Zovi, and E. Dustin, The Art Software Security Testing. United States: Addison Wesley, [23] A. Jaquith, Security Metrics. United States: Addison Wesley, [24] K. Seifried. Dactiloscopia, análisis forence con backtract y sleuth kit Leonard David Lobo Parra Ingeniero de Sistemas Universidad Francisco de Paula Santander Ocaña, Especialista En Auditoria De Sistemas Universidad Francisco de Paula Santander Ocaña, Integrante Semillero de Investigación GNU/Linux and Security SIGLAS. Docente Universidad Francisco de Paula Santander Ocaña. Colombia. Cel: Dewar Rico Bautista Ingeniero de Sistemas, Especialista en Telecomunicaciones, Maestría en Ciencias Computacionales. Grupo de Investigación en Teleinformática y Desarrollo de Software GITYD. Docente Universidad Francisco de Paula Santander Ocaña. Colombia. Celular: CvLac: arcurriculocv.do?cod_rh= [25] S. Geoghegan, L. Landers, and T. Gray. The evaluation of md5 hash tools as a digital forensics class experiment, Computer Science Department University of Arkansas at Little Rock [26] S. Garfink el, D. Malan, K. Dub ec, C. Stev ens and C. Pham. Advanced Forensic Format: An Open, Extensible Format for Disk Imaging [27] K. Sansurooah. Taxonomy of computer forensics methodologies and procedures for digital evidence seizur [28] F. Norouzizadeh, A. Dehghantanha, R. Mahmoud, N. Fazlida, et al. Digital forensic trends and future. Journal: International Journal of Cyber-Security and Digital Forensics ISSN/EISSN: Year: 2013 [29] S. Alharbi, J. Weber and I. Traore. The Proactive and Reactive Digital Forensics Investigation Process: A Systematic Literature Review. International Journal of Security and Its Applications. Vol. 5. No. 4, October, [30] J. Cano. Computación forense. Descubriendo los rastros informáticos. Editorial: Alfaomega [31] B. Carrier and E. Spafford. Getting phisycal with the digital investigation process. International Journal of Digital Evidence. Economic Crime Institute (ECI), Utica College. Fall 2003, volume 2, issue 2.http://www.utica.edu/academic/institutes/ecii/publications/article s/a0ac5a7afb6c-325d-bf515a44fdee7459.pdf. year

121 Scheduling To Job Shop Configuration Minimizing The Makespan Using Champions League Algorithm Arce Rubio Sebastián, Londoño Restrepo Isabel Abstract this paper was developed as research work to aspire to the title of industrial engineer. The paper presents the implementation of the Champions league algorithm implemented in a Job Shop scheduling Problem, The Job Shop is a production system of n machines and m job, each job has a specific sequence and must make use of all machines. Because all the works shared the machines, the problem is to find the best scheduling of minimizing the production time. The work was developed in 6 major parts, firstly a mathematical model was selected from the state of art which should adequately represent the configuration job shop with an objective function (Minimizing makespan). Subsequently rendering scheme solution creating a vector taking into account the variables and restrictions previously selected. From the above, the selected algorithm (Champions League) was adapted to job shop production system based on the proposed model and the solution scheme designed. The algorithm simulates a football league where the best team wins the most games and is the champion, for each solution proposed model represents a team (Sequence of operations to be performed on machines). They confronted total measuring time completeness of work (power equipment) at the end of the season is the champion solution having a lower makespan. The encoding process developed cascade, consisting of analysis, design, implementation, testing and maintenance was developed. In software requirement analysis is defined, the design defines the mode of operation of the program, classes, methods, attributes, and others. Implementation includes development flowcharts and JAVA language translation metaheuristic Champions League. The algorithm was tested using instances of tests taken from the literature proposed by Lawrence and Fisher & Thompson, obtaining accurate values compared with those found by the authors, with times that allow decisions operations in productive enterprises, which shows the proper functioning of the proposed solution. Index Terms Job Shop Scheduling, Makespan, Metaheuristic A INTRODUCTION ll manufacturing companies there are a number of elements that should be considered to obtain a product, including the configuration of the plant. The production plants are organized by process (Job Shop) are characterized by organizing equipment and staff in specific areas according to the process to be developed, these plants develop multiple operations and products, where each product has a path or route production. In the absence of sequencing and have different products sharing both resources like shared equipment, not necessarily where the machine performs the same process for different products, you have problems with idle time, waste of materials, reduced capacity utilization, slippage in deadlines and changes in production volumes [ HYPERLINK \l "Pin01" 1 ]. In general, the plant manager s concerns are short, medium and long term, these include: should they work against order or against inventory, should be released when a production order, what amount 120

122 should be released? And finally and most important for research: What clients or jobs need to be addressed first? Trying to save time and save money in making decisions. However, almost always in industries sequencing is done empirically or intuitively, which does not guarantee the success of the sequencing 2]. STATE OF ART The Job Shop Scheduling Problem (JSSP) is a problem that has worked for at least 50 years ago, starting with Roy and Sussman [1964], who were the first to propose a disjunctive graph representation. The contributions have been extensive with lots of literature including, research began with simple algorithms, reaching the application of genetic algorithms, evolutionary algorithms, heuristics based on bottlenecks, the problem has been so popular that people from different areas knowledge intended to contribute to solving this, production engineers, managers and scientists have led the development beyond engineering, applying methods could not imagine in the field, such as evolutionary theory, ant colonies, among other [ HYPERLINK \l "Gon11" 3 ]. Over time there have been several modifications to bases that have been established pioneers sequencing. Based on the disjunctive graph, Balas [1969] applied an enumerative approach Giffler and Thompson proposed in AD 60 an algorithm for priority dispatch rules. Jackson [1956] generalized the algorithm flow shop Johnson, Bakers and Friedman pioneered by applying a model of linear algebra to the problem, representing the sequences of matrices prosecutions in the year The above authors worked in workshops with n jobs, m machines and related precedence, each job was processed in any order, and sought to enforce the completion of tasks in the shortest time possible. Although there are several studies on JSSP, the authors agree to accept who is the first person to propose sequencing, the first book to translate it was "Industrial Scheduling" edited by Muth and Thompson [1963], this progress is reflected far more important. The first programming problems were detected for the job shop R.Graham plants in 1966, subsequently generating algorithm Hand Edward Coffman called "Coffman -Graham algorithm" 4], this algorithm is designed only two processors, although other sources of information differ and have different authors. The priority dispatching algorithms proposed by Thomson Giffler and are divided into two : nondelay schedules : this seeks to disappear the idle time of the machines provided there is a job to perform, and the active schedule : no operation can be started earlier without making any set- up [ HYPERLINK \l "Sin96" 5 ] Although the Gantt chart is quite old [1919] is one of the most used even today, taken by Clark [1922] and Porter ( 1968] and the most used : Roy and Sussman [1964]. The most popular method of scheduling classification in four field notation, (A / B / C / D] also known as the Conway notation ( 1967], A is the number of jobs, the number of machines B, C is the flow pattern inside the machine shop and D is the extent to which performance will be evaluated sequencing 5] Graham created a new notation [1979], rated a 3 field α, β, γ. The α determines the input of the machine and the environment in which this takes place (one machine at a time). The β contains the details of processing [ HYPERLINK \l "Sin96" 5 ] Johnson [1954] was the one who started the Pj term or πi, this work is considered as one of the first developments of sequencing, creating an optimization algorithm for two machines in Flow shop. From this efficient methods to solve in polynomial time on job shop type workshops 2xm size were used; nx2 but performing more than two operations per job by Jackson in 1956 and nx2 where all process units don time processing units 5]. The Branch and Bound technique is emblematic, use the tree structure is efficient for instances with n < 250 technique, however the time taken to search for the solution is quite large [ HYPERLINK \l "BarSF" 6 ] Much of the early 70's was used to justify the 121

123 complexity, work Cook [1972] and Lawler [1982] took care to show that the vast majority of Pj cannot be solved in polynomial time, for this reason Parker in his publication [1995] divides the story into two, determining the period before 1970 and before the complexity (BC : before of complexity], and advanced difficulty ( AC: advanced difficulty]. From this instance made the studies analyzed Divide 1950, which determined that all investigations were generalized Np-complete type7] MODEL The Job Shop is a production system that has 1) Different machines that meet specific for each of the work operations. 2) The jobs are independent. 3) Each work has a sequence of operations that must be respected. The purpose of the sequencing is: Minimize makespan. The JSSP problem for the following conditions [ HYPERLINK \l "Pin01" 1 ] is defined: n independent jobs between them characterized by the index i. Each job has a sequence of operations called as Each job consists of one or more operations m number of machines denoted. Operation times i work on machine j are represented by j: Number work i: Machine. Sets Parameters Set precedence: for all (i, j) (k, j) є A A determined as the set of arcs representing the precedence relationship Set of operations: for all (i, j) є N Setup Set times: for all (i), (k) є N : Number of operations of job i : Time labor process j on machine i : Time completeness of job j on machine i : Time required by machine i to process job j : Time Product Release j Start time of job j on machine i : Start time of job j in the next machine ai : Indicates the start of processing on machine i of job j : Time Setup of job j on machine i. The notation is based on the book [1] Decision variable Work time completeness j Mathematical formulation Constraints that characterize a Job Shop Production System [1] : No operation can be interrupted to be being operated on a machine. The machines have a setup time to start processing operation (Setup). No machine can operate over one job at a time MATHEMATICAL FORMULATION OF JOB SHOP MODEL WITH SETUP TIMES Indexes (1) (2) (6) (3) (4) (8) (9) (10) (11) (7) (5) 122

124 Objective function (1): The objective function is proposed for minimizing the time when the jobs are in the job shop system, ie the time from launch to finished product. The (max (cj)) indicates the time when the last piece of job j leaves the system. determines the starting time of work, i represents the machine in which the operation is in the moment k successor machine to the process. That said subtracting the start time of job j on machine successor minus the start time of job j on the machine on which it is, must be equal to or greater than the processing time on the current machine, the restriction prevents rape the sequence of the work. The Cmax (makespan) is the completion time of job j, so it is the highest value in the sequence. The makespan less startup time of a job j on a given machine must be greater than the processing time of the same job in the machine as indicated. is the index used to denote the predecessor job to job j on a given machine, so the start time of a job on machine i minus the start time of its predecessor work on the machine must be greater or equal to processing time of its predecessor. must always be positive because time is a resource that should work this time, because the production schedule is designed for the future. PSEUDOCODE In this part is described the process of the metaheuristic: Initialize the league size L and the number of seasons S Generate a league schedule Generate a population of solutions and calculate the playing strengths While(t S(L-1]) o Determinate Winner/Loser among every pair of team using a playing strength based criterion o generate change in training o t=t+1 End While REPRESENTATION OF THE SOLUTION FOR A JOB SHOP PROBLEM The vector solution represents the sequence may have the solution to the problem of Schedule in the production plant, the vectors are created in order to get a better solution, in this case, to obtain the makespan. Fig 1. Solution Vector From the creation of the solution vector Figure 1 represents the solution vector, shows the sequence of each of the papers, these figures in order to respect the precedence constraint characterizing the Job Shop. First correction to the solution vector As mentioned before the solution vector has a size machine works, you should be the number of operations of each job. it takes a "1" for the work "1" and there are more numbers "2" which are allowed (5 for the example), these errors can occur in the time random numbers are generated to create continuous vector, to be the phenomenon in the solution vector is not feasible, since it does not exceed the number of machines in the shop. To correct the error with all fields of work assigned boxes are taken over a discrete random number is generated between "0" and "1" to the box that will be randomly assigned the number "1" should be changed. CHAMPIONS LEAGUE ALGORITHM The champions league algorithm is based on evolutionary algorithms are inspired by sports 123

125 leagues (the Spanish league or Bundesliga). The teams for this case are vectors solutions face in matches every weekend [8] This metaheuristic works similarly to the heuristic nearest or nearest neighbor, this is about creating a Hamiltonian cycle low cost based on the nearest vertex to one he gave, is how to solve faster in contrast to an exact method optimization and in a shorter time gives an approximate solution to the optimum, this is useful because the production schedule may change daily and are operational decisions, this prevents excessive expenditure of time considering that while performing the programming is still industrial system [9] Rules [8] The algorithm has rules that help better simulate the environment of soccer and allow the search for a solution that meets the needs of the workshop. 1) The equipment or solutions with the lowest makespan (Better training team) have a greater chance of winning the game. 2) All equipment or solutions have the same chance of winning games, however flawed is the team's formation (high makespan) has a chance to match any team as presented in real life. 3) In the championship can be given only two outcomes, win or lose. 4) The training changes are made based on the result of the last game played. 5) The technical staff cannot believe in chance, that is, if you lose a match weaknesses is I take the opponent, there is no chance for the technician. Championship Generate the league is the first step to the LCA, the number of solutions (equipment) given the size of the league (L), this is an input parameter, taking the size of the league determined the number of matches to be performed, Equation 12 indicates the number of matches considering that all teams must face the child once in the season. Must take into account the convergence according to the number of created solutions Determinate Winner/Loser In real football championships 3 results are given, win, lose and tie, however the algorithm for a binary outcome, 1 point will be handled if the team wins and 0 if you lose, there is no tie. Since the algorithm is designed to simulate the events of the league, every team has a chance of winning, even if the meeting is inequitable strength team for the worst team has a certain probability of scoring and winning. To deal with two teams (solutions) these have their training assessed (makespan), ie force team. In Equation 13 has a P indicates the probability and a subscript indicating the team to which it belongs either team io team j, the sum of these probabilities must equal 1. In Equation 14 can see a t index, this indicates the formation of team j (subscript) at week t (exponent), ( ) f indicates the strength of the team (makespan). is the variable indicating the worst training that can be given in the championship, ie the largest makespan of the system, which is given by the sum of all operations. If the difference between ( ) and ( ) is very short, P i = 1/2, if ( ) is larger than ( ),. ( ( ) ( ) ( ) Getting the value the winner or loser from the generation of a random number with a uniform distribution between 0 and 1 is determined. If the random number is less than or equal to i team wins, otherwise the team j wins. Setting up a new team formation ) 124

126 Changes in each team formation are made according to the result to get the equipment that is going to make the change, and the result of the team which will face in week t+1. The technical team assesses the strengths and weaknesses of the team in the final showdown, and the opportunities it has to the team with whom he will face in the next game and the threat posed to the team his next opponent. Can be give 4 types of results, i winner - L winner, winner i - L loser, loser i - l winner, loser i - l loser. Husseinzadeh to simulate the environment created football variable that determines the amount of changes to be made in the solution vector, random number from a truncated triangular distribution, the higher the value of fewest changes vice versa, n is the population size, r is a random number between 0 and 1, the latter generates changes in the formula because it is the simulation of the behavior of a technical staff must be aware that not all teams perform same amount of changes. Then to have the amount of change who are chosen will change, is a binary variable, this indicates whether a player or a team should not change, no change 0 and 1 changes. is the new individual team i, is the individual that makes the best training team i in previous iterations, is the binary variable indicating the possibility of change. and are constant coefficients that indicate a scale of importance to the strength or weakness. and are binary random numbers (0 or 1]. First correction to the solution vector As seen in the other lineup changes, these are done by sum of parameters and variables value players. This may imply that the upper range value is exceeded, in this case you must make a correction in the solution vector generating a new range with the values obtained, ie, if the range is between 0 and 5 there is a possibility that a player exceeds the value beyond 5 like the example. ( ) For each scenario there is a formula rate template: Changes in the template are based on Random Key solution vector, because the algorithm was designed for continuous numbers, if you make changes on the discrete solution vector solutions are not feasible. Equations 15 to 18 are designed to diversify the population and make the search less makespan, causing the worst solution is rejected increasingly closer to the optimum ( ) ( ) ( ) ( ) ( ) ( ) TABLE I NEW RANGE Interval Range (0-1.1] 1 [ ] 2 ( ] 3 ( ] 4 ( ] 5 Getting the new range with Equation 17, Random Key intervals are generated, so it is not excluded any work subsequent to the new formations as evidenced in Table I. ( ) ( ) 125

127 Increased randomness Given the situation described in the first experiment it was decided to include a permutation function vectors after changing template solution. The solution vector is operated in a cycle, with a counter "i" that breaks through all the solutions and a counter "j" through each one of the individuals in the vector. A random number between "1" and "JXM" the individual located at the position indicated by the random must change by the individual counters indicated by "i" and "j" is generated. TEST AND RESULTS To measure the efficiency of the program and the algorithm, the researcher took a set of problems given by (Fisher & Thompson, 1963]. The problem is made of 6x6. Problems [10] are well known in the literature, because the demand greater Fisher & Thompson complexity and contains a larger amount of trouble varying sizes. The parameters set for the trials were proposed by the author in search of a good solution and test the ability of the algorithm and the machine, with the proposed parameters a total of 10,000 iterations were reached, the parameter number of changes was established based in publishing the author of the metaheuristic which ensures that equipment changes cannot be made in the entire workforce. FT06 Test Wei ght TABLE II PARAMETERS FT06 Tot al equip ment Nu mber of season s Nu mber of change s opti mum found in the literat ure FT06 6x The table II shows the input parameters used by the authors to test the algorithm with FT06 test. M achi ne 1 M achi ne 2 TABLE III PREEMPTIONS TABLE M achi ne 3 M achi ne 4 M achi ne 5 M achi ne 6 J J J J J J M achi ne 1 TABLE IV TIME OF OPERATIONS TABLE M achi ne 2 M achi ne 3 M achi ne 4 M achi ne 5 M achi ne 6 J J J J J J The preemptions of the Table III were generated by (Fisher & Thompson, 1963) minutely to be a highly difficult problem despite the small size The table IV contains the operating times for the FT06 test given by (Fisher & Thompson, 1963). LA17 The table V shows the input parameters used by the authors to test the algorithm with LA17 test. The preemptions of the Table VI were generated by (Lawrence, 1984). The LA17 test contains 10 jobs and 10 machines. 126

128 TABLE V t Tes Wei ght PARAMETERS LA17 Tot al equip ment Nu mber of season s Nu mber of chang es opti mum found in the literat ure LA17 15x TABLE VI PREEMPTIONS TABLE MACHINE J J J J J J J J J J The table VII contains the operating times for the LA17 test given by (Lawrence, 1984). TABLE VII TIME OF OPERATIONS TABLE M 1 M 2 M 3 M 4 M 5 M 6 M 7 M 8 M 9 M 10 J J J LA23 The table VIII shows the input parameters used by the authors to test the algorithm with LA23 test. This test contains 10 machines and 15 jobs. Test Wei ght TABLE VIII PARAMETERS LA23 Tot al equip ment Nu mber of seaso ns N umb er of chan ges opti mum found in the literatu re LA23 15x The preemptions of the Table IX were generated by (Lawrence, 1984). TABLE IX PREEMPTIONS TABLE MACHINE J J J J J J J J J J J J J J J J J J J J J J The table X contains the operating times for the LA23 test given by (Lawrence, 1984). Abstract of results The table XI is a summary of the optimal contrast literature, the optimum found using the algorithm and the number of iterations required. 127

129 TABLE X TIME OF OPERATIONS TABLE M 1 M 2 M 3 M 4 M 5 M 6 M 7 M 8 M 9 M 10 J J J J J J J J J J J J J J J Test TABLE XI TIME OF OPERATIONS TABLE Optimal found Optimu m found in the literature Iteration s required FT LA LA CONCLUSIONS Research conducted and reflected in the art and history, it was shown that the metaheuristic Champions League has not been adapted in the field of production scheduling in a job shop floor configuration. The mathematical model constructed from the state of the art meets the configuration constraints in job shop floor, and setup time constraints, allowing the adaptation of the model to the metaheuristics. The representation of solution was adapted to "Random Key" because the metaheuristic was designed to work with continuous solutions, and machines and their respective positions are represented with discrete numbers that prevented the proper functioning of the model, this adaptation allows the use metaheuristic and implementation of the software. The representation proposed work was designed to adapt to the computer as a solution where each player is the representation of a job, which in turn depending on the position that is in the solution vector indicates the machine in which it will be operated. The first correction to the vector solution was made to fix infeasible solutions when the proposed representation does not respect the constraints of the model, however in some cases it may fail infeasibility due to increased range established by the "Random Key" so thus the second correction takes place. The algorithm Champions League meets the expectation of development as it finds feasible solutions that allow you to determine the best way to produce, as evidence used in the literature (FT06, LA17 and LA23) was run reached the optimum in acceptable computational times. The sensitivity analysis shows a greater influence of the parameters that increase the computational time as the number of teams and number of seasons, it is because the parameters increase the number of possible solutions which generates a query with probabilities higher success since it has more time, the parameter number of changes also has influence, as this increases the changes in solution vector, which makes the solution vector changes significantly between one iteration to another, this makes a larger amount to be assessed possible solutions which in turn enable an exhaustive search. The C1 and C2 parameters do not influence the search; this is due to increased randomness in the proposed work. BIBLIOGRAPHY [1] Michael Pinedo, Theory, algorithms, and systems. New York: Springer, [2] Krajewski and Ritzman, Administracion de las operaciones.: Pearson, [3] Miguel Angel Gonzales, Soluciones meta heuristicas al jon shop scheduling. Oviedo: 128

130 Universidad de Oviedo, [4] Graham R, "optimal scheduling two-processor systems," [5] Anant Singh and Sheik Meeran, A state of art review of Job Shop. Escocia: Universidad de Dundee, [6] Irene Barba, Algoritmos de planificación basados en restricciones para la sustitución de componentes defectuosos. Sevilla : Universidad de Sevilla, S.F. [7] Carlos Cota, Una Vision General de los Algoritmos Memeticos. Malaga: Universidad de Malaga, [8] Ali Husseinzadeh, League Championship Algorithm: A new algorithm for numerical function. Tehran, Iran: Department of Industrial Engineering, [9] Rafael Martí, Procedimientos Metaheurísticos en Optimización Combinatoria. Valencia: Universidad de Valencia, [10] S Lawrence, Resource constrained project scheduling: an experimental investigation of heuristic scheduling techniques (Supplement). Pennsylvania: Prentice Hall, [11] Mitsuo Gen, Genetic algorithms and engineering design. New York: John Wiley & Sons Inc,

131 Una Mirada a BPMN como Herramienta Estándar para el Modelado de Procesos de Negocio Juan Federico Gómez Estupiñan, Universidad de Boyacá Resumen El artículo revisa el estándar Business Process Model and Notation BPMN, como herramienta gráfica para el modelado de los procesos de negocio de una organización, describe la notación utilizada, analiza a BPMN según sus cualidades gráficas, sus características estructurales y de integración con otras herramientas, se identifican sus ventajas respecto a los diagramas de actividades del Lenguaje de Modelado Unificado UML. Se concluye que BPMN es mucha más que una herramienta para construir diagramas de flujo, se soporta en una especificación formal que incluye un metamodelo y las reglas de uso relacionadas. BPMN consolida las mejores prácticas en el modelado de procesos de negocio aportadas por otros estándares que le precedieron. Se ha convertido en el estándar internacional en este aspecto, las principales empresas que proveen productos para la Gestión de Procesos de Negocio BPM, lo han adoptado. Palabras Clave Gestión de Procesos de Negocio BPM, Notación y Modelo de Procesos de Negocio BPMN, Diagramas de Procesos de Negocio BPD, Patrones de Workflow. Abstract The article reviews the Business Process Model and Notation BPMN standard, like graphical tool for modeling business processes of an organization, describe the notation used, analyzed BPMN as their graphic qualities, their structural features and integration with other tools, identify their advantages Este artículo es un producto del proyecto Construcción de un Proceso de Desarrollo de Software con Base en Model Driven Architecture MDA y Model Driven Software Development MDSD, desarrollado por el grupo de investigación GIPROCAS, del programa de Ingeniería de Sistemas de la Universidad de Boyacá. Juan Federico Gómez Estupiñan, es Jefe del Centro de Informática y docente investigador del programa de Ingeniería de Sistemas de la Universidad de Boyacá ( compared to activity diagrams of Unified Modeling Language UML. We conclude that BPMN is much more than a tool to build flowcharts, is supported by a formal specification that includes a metamodel and rules related use. BPMN consolidates best practices in modeling business processes provided by other standards that preceded it. It has become the international standard in this area, the main companies that provide products for Business Process Management BPM, have adopted it. Keywords Business Process Management BPM, Business Process Model and Notation BPMN, Business Process Diagram BPD, Workflow Patterns. INTRODUCCIÓN B usiness Process Management BPM, es un nuevo enfoque que ha venido adquiriendo importancia en las organizaciones. Su propósito fundamental definir procesos de negocio, rápidos, efectivos y transparentes a toda la organización. Incluye un conjunto de mejores prácticas, tecnologías y herramientas utilizadas para analizar, diseñar, implementar, controlar y gestionar los procesos del negocio. Business Process Model and Notation BPMN, es una herramienta gráfica, desarrollada para el modelado de procesos de negocio, que utiliza un formato de flujo de trabajo, pero es mucha más herramienta para elaborar diagramas de flujo de datos. Provee una notación estándar sencilla, comprensible tanto para el personal técnico y no técnico de la organización. Esto tiene como propósito reducir la brecha de comunicación entre las áreas involucradas en el análisis, diseño e implementación de los procesos de negocio. 130

132 Inicialmente se muestra una visión general de BPM, las dos áreas que lo conforman como son BPM Governance y BPM Operacional. Posteriormente se describe BPMN como herramienta gráfica para modelado de procesos de negocio y se detallan sus elementos básicos de notación y los tipos de diagramas utilizados. Seguidamente, se presenta el análisis de BPMN como herramienta gráfica y según sus características estructurales y de integración. Finalmente se muestran las ventajas como herramienta de modelado, de BPMN sobre los diagramas de actividades de UML. BUSINESS PROCESS MANAGEMENT BPM Las empresas de hoy, requieren adaptarse rápidamente a los cambios permanentes que se generan en su entorno. Una manera de lograr esta adaptación, es disponer de un mayor control y capacidad de cambio en sus procesos de negocios, para ofrecer más valor a sus clientes. Es decir, además de ser eficientes y eficaces, las empresas deben ágiles para adaptarse al entorno cambiante, lo que se logra ajustando sus propios procesos. Esto se traduce en ventajas competitivas, representadas en un mejor posicionamiento, mayor visibilidad y por ende mayores ingresos. De acuerdo a Hitpass [1], un proceso de negocio es un conjunto de actividades impulsadas por eventos y ejecutadas en una secuencia específica que generan valor para el cliente. Los procesos de negocios son transversales a las áreas de la organización e involucran toda la cadena de valor. Un proceso tiene un flujo determinado, es decir una instancia de proceso sigue una secuencia de pasos descritos explícitamente como caminos en una ruta con un único punto de partida y uno más puntos de llegada. La lógica de la ruta está determinada por la lógica del negocio, eventos externos y las reglas del negocio. Las actividades en los procesos son realizadas por personas, sin embargo las actividades repetitivas que están muy bien definidas pueden automatizarse haciendo uso de la tecnología adecuada, lo que se traduce en reducción de tiempo, costos y ocurrencia de errores. Entre las actividades que pueden automatizarse están las tareas personales de usuario, reglas de negocio, creación de documentos y uso de servicios web entre otras. Definición de Business Process Management El concepto de gestión de procesos de negocio (Business Process Management BPM) fue utilizado inicialmente por Smith y Fingar en su libro BPM Third Wave [2], señalándolo como la tercera ola en la ingeniería de procesos. Para Jeston & Nelis [3], BPM es el logro de los objetivos empresariales a través de la mejora, la gestión y el control de los procesos de negocio, que incluye aspectos de análisis, modelado, implementación y ejecución de los procesos. Según Garimella y otros [4], BPM es un conjunto de mejores prácticas de gestión de procesos, herramientas y tecnologías utilizadas para analizar, diseñar, representar, y controlar los procesos del negocio. Combina las tecnologías de la información con metodologías de proceso y gobierno. BPM integra el recurso humano del negocio y del área de tecnologías de información, con el propósito de definir procesos de negocios rápidos, efectivos y transparentes a toda la organización. Una definición más amplia la plantea el documento base de BPM de la Asociación Internacional de Profesionales de BPM [5], que dice BPM es un enfoque sistemático para identificar, levantar, documentar, diseñar, ejecutar, medir y controlar tanto los procesos manuales como automatizados, con el propósito de obtener resultados consistentes para el logro de los objetivos del negocio que están alineados con la estrategia organizacional. BPM incluye el soporte integral de las tecnologías de información para mejorar, innovar y gestionar los procesos que determinan los resultados del negocio, crean valor para el cliente y facilitan el logro ágil de los objetivos del negocio. 131

133 Áreas de Business Process Management BPM abarca dos grandes áreas que son el BPM Governance y el BPM Operacional. La primera que también se le conoce como gestión por procesos, hace referencia a un modelo de gestión corporativo orientado a procesos, que integra las capas directiva, operativa y tecnológica de la organización, alineando las operaciones con la estrategia mediante el uso de tecnología [1]. Define un marco de trabajo que incluye los lineamientos enfocados a estructurar todas las actividades e iniciativas BPM de la organización para gestionar todo lo relacionado con sus procesos de negocio. Es el marco de referencia que servirá de guía a la empresa para la implementación efectiva de los principios de BPM [6]. La gestión por procesos de negocios implica la definición de una arquitectura empresarial integral. Desde ese punto de vista Garimella [4], identifica cuatro componentes básicos de la arquitectura de BPM, así: Arquitectura de negocios, arquitectura de procesos, arquitectura de gestión y arquitectura tecnológica. BPM Operacional se enfoca a la gestión del ciclo BPM para cada uno de los procesos, es decir la capa operacional, sin considerar el alineamiento con las otras capas del negocio. Esta visión se conoce como gestión de procesos, enfatiza en el rol y las funciones de las personas. Tiene como meta lograr un mayor control y desempeño de los procesos para cumplir los objetivos funcionales correspondientes. De acuerdo a lo que propone Hitpass [1], el ciclo para un proceso existente incluye las fases de levantamiento de información, documentación, rediseño e implementación. El resultado del ciclo es el proceso automatizado y documentado, acorde con el modelo deseable de este. BUSINESS PROCESS MODEL AND NOTATION BPMN BPMN es una herramienta gráfica estandarizada para el modelado de procesos de negocio, que utiliza un formato de flujo de trabajo (workflow). Fue desarrollada inicialmente por la organización Business Process Management Initiative BPMI, actualmente es soportada por el Object Management Group OMG, después de la fusión de estas dos organizaciones en el año La versión vigente es BPMN 2.0 que apareció en 2011 [7]. BPMN ofrece una notación estándar sencilla que es fácil de entender por parte de todas las personas relacionadas con lo procesos de negocio, como son, los analistas de negocio quienes definen los procesos, los desarrolladores técnicos que son los responsables de implementar los procesos, y los gerentes o administradores del negocio, BPMN cuya Solicitud responsabilidad de Vehículo es monitorear y gestionar los procesos. BPMN tiene «BusinessProcess» como uno de sus propósitos servir de Subproceso lenguaje común para disminuir la brecha de comunicación que se presenta entre las actividades de análisis, diseño e implementación tecnológica de los procesos de negocio [7], [8]. Elementos de Notación de BPMN BPMN Solicitud de Vehículo Objetos de BPMN Solicitud de Flujo Vehículo «Pool» Nombre Piscina Actividades Eventos Compuertas «BusinessProcess» Actividad Subproceso Objetos de Conexión Flujo de Secuencia Flujo de Mensaje Asociación Canales (Swinlanes) «Lane» Nombre Carril Artefactos BPMN Solicitud de Vehículo «Pool» Nombre Piscina Datos BPMN Solicitud de Vehículo «BusinessProcess» Subproceso Actividad BPMN Solicitud de Vehículo «Pool» Nombre Piscina Piscina Comentario «Lane» Nombre Carril Objeto de datos BPMN Solicitud de Vehículo Actividad BPMN Solicitud de Vehículo Carril Agrupación Almacén de datos Fig. 1. Elementos básicos de notación de BPMN «BusinessProcess» Subproceso Actividad Para el modelado en BPMN se utilizan diagramas sencillos con un pequeño conjunto de elementos «Lane» Nombre Carril Contenido anotación Objeto de datos Objeto de datos «Pool» Nombre Piscina «Lane» Nombre Carril 132

134 gráficos que incluyen símbolos, relaciones y atributos. En la versión BPMN 2.0, las categorías básicas de elementos son: objetos de flujo, objetos de conexión, canales, artefactos y datos [7], [9]. La figura 1 muestra los elementos básicos de notación utilizados.en las siguientes secciones se describe cada una de estas categorías. Actividad de llamada: Es una referencia a un subproceso o tarea definido de forma global que se reutiliza en el proceso actual. class DiagramaPrueba Tarea Objetos de Flujo Son los elementos principales que se describen en BPMN, estos son actividades, eventos y compuertas o gateways. Actividades Son acciones sobre un objeto, se denominan siempre con un verbo (acción) y un sustantivo (objeto). Describen el trabajo desarrollado dentro de un proceso de negocio, pueden ser atómicas o compuestas, y pueden ser iterativas. Se representan por un rectángulo con sus vértices redondeados. A continuación se relacionan los tipos de actividades y en la figura 2 se muestra la notación correspondiente. Tarea: Representa una sola unidad de trabajo que no es o no se puede dividir a un mayor nivel de detalle de procesos de negocio. Subproceso: Agrupa un conjunto de actividades que conforman una unidad independiente, se utiliza para ocultar o mostrar niveles de detalle de procesos de negocio. Transacción: Es una forma de subproceso en la cual, todas las actividades contenidas deben ser tratadas como un todo. Subproceso de evento: Se sitúan dentro de un proceso, se activa cuando ocurre el evento de inicio determinado y mientras el proceso que lo contiene permanezca también activo. Fig. 2. Tipos de actividades También se utilizan marcadores de actividades que especifican el comportamiento particular de las actividades durante su ejecución (Figura 3). Estos marcadores se ubican en la parte inferior del rectángulo que representa la actividad. Fig. 3. Marcadores de actividades Fig. 4. Marcadores de actividades 133

135 Adicionalmente se usan tipos de tarea para especificar la naturaleza de la tarea que se desea realizar (Figura 4). Los tipos se ubican en la parte superior del rectángulo que simboliza la tarea. Eventos Describen algo que sucede durante el desarrollo de un proceso y que afecta su flujo, generan un disparo o resultado. La frontera determina el tipo de evento. Se representan gráficamente por un círculo. Según el momento en que ocurran existen tres tipos básicos de eventos, estos se describen a continuación y en la figura 5 se muestra la notación correspondiente. Evento inicial: Actúa como un disparador de un proceso, son eventos de captura (catching events). Es posible que varios eventos puedan iniciar un proceso, en este caso cada evento inicia una nueva instancia del proceso. Evento intermedio: Indica algo que sucede entre el inicio y el final del proceso. Pueden ser del tipo de captura o pueden ser impulsados por alguna actividad del mismo proceso. Evento final: Indica el fin de un proceso, ocurren de forma que el proceso ya no puede reaccionar a ellos, son eventos de lanzamiento (throwing events). Evento inicial Evento Intermedio Evento Final Fig. 5. Tipos de eventos según momento de ocurrencia Adicionalmente, los tipos de eventos están relacionados con aspectos como recepción y envío de mensajes, puntos en el tiempo, tiempos de espera, cumplimiento de condiciones de negocio, captura o lanzamiento de errores, cancelación de subprocesos y recibo o envío de señales, entre otros (ver Figura 6). Tipo de Evento Simple Mensaje Temporal Escalable Condicional Enlace Error Cancelación Compensación Señal Múltiple Paralela Múltiple Terminación Fig. 6. Tipos de eventos según aspecto que representan [10] Compuertas (Gateways) Notación Gráfica Controles de secuencia de flujo dentro de un proceso, como un punto de convergencia o divergencia. Las compuertas dividen y combinan flujos, determinan si se bifurca o se combinan las rutas dependiendo de las condiciones expresadas. Se representan con un rombo. Los tipos de compuertas se relacionan a continuación y en la figura 7 se muestran los símbolos correspondientes. Compuerta Exclusiva: En un punto de bifurcación solo un camino de salida es seleccionado según una expresión condicional. En un punto de convergencia, la compuerta espera a que un flujo incidente complete para activar el flujo saliente. Compuerta Inclusiva: En un punto de bifurcación al menos un flujo es activado, 134

136 se puede seleccionar uno, muchos o todos los flujos de salida. En un punto de convergencia espera a todos los flujos que fueron activados para activar al flujo saliente. Compuerta Basada en Eventos: Esta compuerta siempre es seguida por eventos o tareas de recepción, y solo activará un flujo saliente dependiendo del evento que ocurra primero. Compuerta Paralela: En un punto de bifurcación todos los caminos salientes serán activados simultáneamente. En un punto de convergencia espera a que todos los flujos incidentes se completen antes de activar el flujo saliente, punto de sincronización. Compuerta Compleja: Se utiliza para representar decisiones con definiciones avanzadas de comportamiento complejo de convergencia o bifurcación, no capturado por otras compuertas. Compuerta Exclusiva Basada en Eventos: Es generadora de instancias, en la ocurrencia de uno de los eventos subsecuentes, se crea una nueva instancia del proceso. Compuerta Paralela Basada en Eventos: Es generadora de instancias, en la ocurrencia de todos los eventos subsecuentes se crea una nueva instancia del proceso. Objetos de Conexión Relacionan los objetos de flujo. Los tipos de objetos de conexión se describen a continuación y en la figura 8 se representan los símbolos correspondientes. Estos son: Flujo de Secuencia, Flujo de Mensaje y Asociación. Flujo de Secuencia Enlaza dos elementos, permiten mostrar la secuencia en que las actividades se llevarán a cabo. Está representado por una línea simple continua y flechada. Sí aparece un rombo pequeño al inicio de la línea flechada indica uno de un número de flujos condicionales desde una actividad, si se muestra una barra diagonal (slash) indica el flujo por defecto desde una decisión o actividad con flujos condicionales. Flujo de Mensaje Indica el envío de un mensaje entre dos elementos ubicados en piscinas diferentes. Se representa por una línea discontinua con un círculo no relleno al inicio y una punta de flecha no rellena al final. Esto nos dice, que el flujo de mensaje atraviesa la frontera organizacional. Un flujo de mensaje no puede ser utilizado para conectar actividades o eventos dentro de la misma piscina. Asociación Se utiliza para conectar artefactos o elementos de datos a un objeto de flujo, se representa por una línea punteada, y puede indicar diversas direcciones, usando una punta de flecha no rellena hacia el artefacto para representar a un resultado, desde el artefacto para representar una entrada, y los dos para indicar que se lee y se actualiza. Fig. 7. Tipos de compuertas 135

137 MN Solicitud de Vehículo «BusinessProcess» Subproceso Flujo de secuencia Canales (Swimlanes) Fig. 8. Tipos de objetos de conexión Representan los responsables de las actividades en un proceso, por ejemplo organizaciones, roles, áreas funcionales o sistemas. Son de dos tipos piscina y carril, los cuales se describen a continuación, en la figura 1 se muestran los símbolos correspondientes. Piscina Identifica cada uno de los principales participantes en un proceso. Una piscina puede contener uno o más carriles. Se simboliza con un rectángulo a lo largo o ancho del diagrama, contiene el nombre correspondiente. Una piscina puede ser abierta (muestra los detalles internos), o cerrada (esconde los detalles internos). Carril Flujo de mensaje Muestra un rol o área funcional dentro de una piscina, se utiliza para organizar y categorizar las actividades de acuerdo a funciones o roles de las personas o áreas involucradas en un proceso. Se simboliza con un rectángulo estrecho a lo ancho o a lo largo de la piscina a la que pertenece. Un carril puede contener objetos de flujo, objetos de conexión y artefactos. Artefactos Actividad Flujo de secuencia por defecto Asociación Flujo de secuencia condicional Elementos de documentación para hacer más comprensibles los diagramas. A continuación se describen cada uno de ellos, en la figura 1 se puede observar el símbolo correspondiente. Comentario Se utiliza para incluir una nota o comentario para describir o documentar algún aspecto específico del diagrama. Se simboliza con un rectángulo sin el lado derecho, con el contenido de la nota. Agrupación Datos Se utiliza para agrupar diferentes actividades pero no afecta al flujo dentro de un diagrama. Se representa por un rectángulo de líneas discontinuas y vértices redondeados. Representan archivos de datos, objetos de datos o documentos que son producidos y/o consultados por un proceso o actividad. Los tipos de datos se relacionan a continuación, y en la figura 9 se muestra la notación correspondiente. Dato de entrada Datos o documentos externos que entran a un proceso, puede ser consultado por una actividad. Dato de salida Es una variable que está disponible como resultado de un proceso. Dato de tipo objeto Representa la información que fluye a través de un proceso, por ejemplo documentos, correos electrónicos o cartas. 136

138 Colección de Objetos de Datos Representa una colección de información, por ejemplo una lista de personas. Almacén Repositorio donde un proceso puede consultar o almacenar datos, por ejemplo una base de datos. Los datos persisten más allá de la vida de la instancia del proceso. Mensaje Se utiliza para representar el contenido de una comunicación entre dos participantes. Dato de entrada Dato de salida Dato de tipo objeto Instancia de un Proceso: Una instancia es un proceso concreto en la realidad, es decir casos reales, por ejemplo el reclamo de un cliente crea una instancia del proceso de reclamos. Algunos procesos se instancian solo un par de veces al año y otros mucho más, pueden ser miles o millones. Token (marca): Este concepto se utiliza para visualizar y probar el comportamiento de los procesos diseñados. Las marcas recorren en forma de animación la lógica por los flujos normales y los de excepción. Correlación: Es una forma de identificación o referenciación. La correlación es importante para los procesos tanto desde el punto de vista organizacional como técnico. Un caso siempre debe estar bien correlacionado para evitar errores o pérdidas de datos. Colección de objetos de datos Almacén Fig. 9. Tipos de datos Mensaje Diagramas de Procesos de Negocio El elemento fundamental de modelado de procesos de negocio en BPMN es el Diagrama de Procesos de Negocio (Business Process Diagram BPD). Los BPD son diagramas sencillos, comprensibles a todos, manejan adecuadamente la complejidad inherente a los procesos de negocio, utiliza unos pocos símbolos básicos pero más variaciones, que lo hace gráficamente más completo. La figura 10 muestra un ejemplo de un BPD. Hay que tener en cuenta los siguientes principios y aspectos claves en un diagrama [9]. Modelo de Procesos: En un diagrama pueden representarse uno o más modelos de procesos. Cada modelo constituye la descripción de un proceso. Fig. 10. BPD de un proceso de quejas y reclamos [10] Diagrama de Coreografía Define en forma secuencial las interacciones entre dos o más participantes, los cuales pueden ser roles o entidades. Describe la comunicación entre piscinas mediante el intercambio público de mensajes, en el ámbito de una colaboración. Una tarea de coreografía representa una interacción (intercambio de mensajes) entre dos 137

139 participantes. La figura 11 muestra un ejemplo de diagrama de coreografía. propósito es mostrar la relación lógica entre participantes (ver figura 13). Fig. 11. Ejemplo de diagrama de coreografía [11] Diagrama de Colaboración Fig. 13. Ejemplo de diagrama de conversación [11] ANÁLISIS DE BPMN COMO HERRAMIENTA DE MODELADO DE PROCESOS DE NEGOCIO Fig. 12. Ejemplo de diagrama de colaboración [11] Representa la comunicación entre dos o más participantes (piscinas), a través de flujos de mensaje. Este tipo de comunicación se conoce como colaboración y describe el envío o recibo de mensajes y/o señales que contienen información a partir de la cual se toman decisiones. La figura 12 muestra un ejemplo parcial de diagrama de colaboración. Diagrama de Conversación Representa las conversaciones entre participantes, entendida una conversación como un conjunto de mensajes intercambiados, relacionados entre sí de forma lógica. Describe informalmente un diagrama de colaboración, pero conservando sus características, su BPMN fue aplicado para el modelado del caso de estudio alquiler de vehículos, utilizado en el proyecto Construcción de un Proceso de Desarrollo de Software basado en Model Driven Architecture MDA y Model Driven Software Development MDSD, desarrollado por el grupo de investigación GIPROCAS, del programa de Ingeniería de Sistemas de la Universidad de Boyacá [12]. Los resultados y la experiencia obtenida se tuvieron en cuenta para este análisis de BPMN como herramienta de modelado de procesos de negocio, así como los planteamientos de varios autores en el tema [13], [14]. BPMN como Herramienta Gráfica BPMN es una herramienta gráfica estandarizada para la notación del modelado de procesos de negocio, basado en un formato de flujo de trabajo. Sus características principales son: 138

140 Herramienta Workflow Aunque BPMN se basa en el concepto de flujo de trabajo, difiere sustancialmente de los diagramas de flujo convencionales, y paradójicamente ahí radica su potencialidad. Se destacan las siguientes diferencias: BPMN se sustenta en una especificación formal que incluye un metamodelo y reglas de uso. Su expresividad se deriva de un conjunto de marcadores, iconos y estilos que especifican la semántica de cada forma básica. El uso de cada elemento de notación y su relación con otros elementos esta definido mediante una colección de reglas asociadas. Un evento es algo que sucede mientras el proceso está en marcha. BPMN puede describir el comportamiento de un evento activado, un modelo puede determinar qué hacer cuando se presentan excepciones en el desarrollo de un proceso. BPMN no solo representa el flujo dentro de un proceso, también describe las comunicaciones entre los procesos y las entidades externas como los usuarios, los proveedores de servicios incluso con otros procesos internos. Notación Básica BPMN proporciona los elementos de notación gráfica, las reglas sintácticas y las reglas semánticas para elaborar los Diagramas de Procesos de Negocio (Business Process Diagram BPD), que representan la secuencia de actividades que conforman un proceso. Utiliza con conjunto básico de símbolos, pero estos tienen diversas variaciones, que lo hacen gráficamente más completo. Los diagramas son sencillos y fáciles de entender para todas las personas involucradas en la gestión de procesos de negocio. A pesar de su simplicidad, los BDP permiten operar adecuadamente la complejidad inherente a los procesos de negocio. Modelo Semántico Asociado Un modelo BPMN incluye una representación gráfica y el modelo semántico XML subyacente, donde cada elemento gráfico en el modelo corresponde a un elemento semántico. En BPMN 2.0 tanto el metamodelo, como las definiciones de elementos y las reglas asociadas, hacen referencia a elementos semánticos, no a los elementos gráficos del diagrama. BPMN tiene un marco conceptual oculto materializado en la semántica de los elementos definidos por el estándar, tales como proceso, actividad, evento, lógica del proceso y orquestación entre otros. Se puede tener un modelo semántico representado por el proceso lógico definido en XML, sin un modelo gráfico asociado. Pero no es posible tener un modelo gráfico sin un modelo semántico relacionado. BPMN según sus Características Estructurales y de Integración En BPMN el modelo está enfocado en la semántica formal de las definiciones de los elementos y sus interrelaciones definidas en el metamodelo, así como su representación en XML. Los cambios introducidos en BPMN 2.0 se orientaron a ofrecer un formato de intercambio XML básico para los modelos de proceso. Lo más importante y en lo que se hace más énfasis es en el modelado, más que en la notación. Adicionalmente el metamodelo permite ejecutar directamente los modelos BPMN en un motor de procesos, esto significa que se pueden mapear explícitamente los modelos a un ambiente técnico, por ejemplo Business Process Execution Language BPEL, que es un estándar para automatización de procesos basado en XML. Niveles Estructurales En BPMN se identifican tres niveles estructurales, Los dos primeros niveles se orientan a procesos no ejecutables, el tercero se enfoca a la ejecución del proceso. El nivel uno, que equivale a los elementos básicos 139

141 de notación, estos son suficientes para describir la mayor parte del comportamiento del proceso. El nivel dos corresponde al manejo de las excepciones, enfatizando en los eventos relacionados con mensajes, tiempos, errores, condiciones de negocio, señales y cancelaciones. Este nivel también incluye las bifurcaciones y patrones de combinación. El nivel tres hace referencia al componente ejecutable, es decir, los detalles XML que no se presentan en el diagrama, aspectos como modelos de datos, expresiones de datos condicionales de las compuertas y especificación lógica de asignación de tareas. Niveles de Abstracción BPMN permite manejar diferentes niveles de abstracción para representar y facilitar la comprensión de los procesos de negocio. Los mapas de procesos, son el nivel más general, diagramas simples que representan el flujo de actividades. El segundo nivel son las descripciones de procesos que agregan más detalles como roles de las personas y elementos de datos involucrados en el proceso. El tercer nivel son los modelos de procesos que son diagramas mucho más detallados, que facilitan el análisis y simulación del proceso, estos modelos se pueden ejecutar en un motor de procesos. Uso de Patrones de Workflow Con BPMN es posible representar más patrones de workflow, en comparación con otras notaciones existentes. Teniendo en cuenta la propuesta de Van Der Aalst [15], BPMN permite expresar los patrones básicos de control de flujo, así: Secuencia. Representa dependencia entre tareas, el orden de ejecución de estas. División Paralela. Identifica un punto del proceso donde un camino se divide en dos o más ramificaciones paralelas, que son ejecutadas paralelamente. Sincronización. Muestra un punto del proceso donde dos o mas ramificaciones se unen en una sola, se espera que todas las ramas se completen para continuar con la siguiente actividad. Decisión Exclusiva. Representa un punto del proceso donde se debe seleccionar un único camino según una decisión. Unión Simple. Define un punto del proceso donde dos o más caminos alternos convergen en uno solo, estos caminos no son ejecutados concurrentemente. Adicionalmente, permite representar los patrones avanzados de sincronización y bifurcación, de múltiples instancias, basados en estados, de cancelación y completamiento forzado, de interacción, de inicio y de terminación. BPMN versus Diagramas de Actividades de UML Los diagramas de actividades del Lenguaje de Modelado Unificado (UML por su sigla en inglés), muestran el flujo de control de actividades, representan los pasos secuenciales de un proceso. Describen lógica procedimental, procesos de negocio y flujos de trabajo. Aunque fueron concebidos fundamentalmente para el diseño de software, también han sido utilizados para el modelado de procesos de negocio. Sin embargo existen unas ventajas importantes de BPMN respecto a estos diagramas, entre las que podemos destacar: BPMN soporta un mayor número de patrones de workflow. Estos se dividen en patrones de control de flujo tanto los básicos como avanzados (descritos en la sección anterior); patrones de datos que capturan las distintas formas como se pueden utilizar los datos, y describen las características de interacción de los datos con otros elementos de workflow [16]; patrones de recursos que muestran las formas en que los diferentes recursos de workflow se pueden representar y utilizar [17]. BPMN gráficamente es más rico. Utiliza pocos símbolos básicos pero con gran variedad, facilita la comunicación de la complejidad de los procesos entre los diferentes usuarios involucrados. Los Diagramas de Actividades son una notación técnica, mientras que los Diagramas de 140

142 Procesos de Negocio BPD son más sencillos comprensibles para todo tipo de usuarios [18]. BPMN es compatible con el Lenguaje de Definición de Procesos en XML (XPDL), además permite transformaciones directas al nivel de implementación en servicios web con el Lenguaje de Ejecución de Procesos de Negocio (BPEL). CONCLUSIONES De acuerdo a la experiencia y los resultados de la aplicación de BPMN en el proyecto mencionado anteriormente, y el análisis de BPMN como herramienta para el modelado de procesos de negocio, se plantean las siguientes conclusiones: BPMN se soporta en el concepto de flujo de trabajo (workflow), pero es mucho más que una herramienta para elaborar diagramas de flujo de datos. Cada elemento básico de notación y los elementos derivados tiene una semántica claramente definida. BPMN está basado en una especificación formal que incluye un metamodelo y reglas de uso asociadas. BPMN no es una metodología, proceso o marco de trabajo. Está concebido para dar soporte específicamente a procesos de negocio, así pues, aspectos como modelado de estructuras organizacionales, descomposición funcional o modelos de datos, no están en el ámbito de BPMN. BPMN consolida las mejores prácticas en el modelado de procesos de negocio aportadas por otros estándares que le precedieron. Se ha convertido en el estándar internacional para la modelización de procesos, las principales empresas que proveen productos BPM lo han adoptado. BPMN fue concebido como una herramienta genérica, es decir, es independiente de cualquier metodología, herramienta de modelado o plataforma de implementación, de procesos de negocio. BPMN facilita el modelado de procesos de forma unificada y estandarizada, que permite la comprensión a todas las personas involucradas, esto permite disminuir la brecha de comunicación entre el diseño de los procesos de negocio y su implementación práctica. La notación de BPMN facilita la coordinación de la secuencia de procesos y los mensajes que fluyen entre los responsables de ejecutar las actividades que conforman los procesos. BPMN cubre particularmente lo relacionado con el modelado formal de procesos de negocio, pero no es suficiente aplicar BPMN para implementar BPM en una organización, se requiere tener en cuenta otras herramientas de gestión y monitoreo de procesos de negocio. BPMN es flexible en el sentido que puede ampliarse en su notación, es decir, se pueden incluir símbolos propios para identificar nuevos artefactos. Adicionalmente, modelos de BPMN pueden relacionarse con otros modelos de una arquitectura empresarial. REFERENCIAS BIBLIOGRÁFICAS B. Hitpass, Business Process Management (BPM): Fundamentos y Conceptos de Implementación, 2da Ed. Santiago de Chile, Chile: BPM Center, Editorial BHH Ltda, 2013, pp H. Smith y P. Fingar, Business Process Management: The Third Wave, Tampa, Florida: Meghan Kiffer Press, J. Jeston y J. Nelis, Business Process Management. Practical Guidelines to Successful Implementations, 2da Ed. Oxford, UK: Elsevier Ltd, K. Garimella, M. Lees yb. Williams, Introducción a BPM para Dummies, Edición Especial de Software AG, Indianapolis: Wiley Publishing Inc, 2008, pp ABPMP Association of Business Process Management Professsionals, BPM CBOK Guide to the Business Process Management Body of Knowledge, USA, M. Kirchmer, High Performance Through Process Excellence. From Strategy to Execution with Business Process Management, 2da Ed. Berlin Heidelberg, Germany: Springer-Verlag, 2011, pp OMG Object Management Group. (2011).BPMN Business Process Model and Notation. Version 2.0.Official Page. [en línea]. Disponible en: SPARX Systems. (2012).Business Process Modeling Notation- a Tutorial. [enlínea]. Disponible en: 141

143 J. Freund, B. Rucker y B. Hitpass, BPMN 2.0.Manual de Referencia y Guía Práctica, Santiago de Chile, Chile: Camunda, BPM Center, 2011, pp BIZAGI. (2013).Bizagi Process Modeler. [en línea]. Disponible en: OMG Object Management Group. (2010). BPMN 2.0 by Example. Version 1.0. Document number: dtc/ [en línea]. Disponible en: L. O. Chaparro y J. F. Gómez. Construcción de un Proceso de Desarrollo de Software basado en Model Driven Architecture MDA y Model Driven Software Development MDSD. Proyecto de Investigación, Grupo GIPROCAS. Tunja, Colombia: Programa de Ingeniería de Sistemas, Universidad de Boyacá, B. Silver, BPMN Method and Style. With BPMN Implementer s Guide, 2da Ed. USA: Cody-Cassidy Press, S. White y D. Miers, Guía de Referencia y Modelado BPMN,Lighthouse Point, Florida: Future Strategies Inc., W. Van Der Aalst, A. Hofstede, B. Kiepuszewski y A. Barros, Workflow Patterns, Eindhoven, The Netherlands: Department of Technology Management,Eindhoven University of Technology, N. Russel, A. Hofstede, D. Edmond y W. Van Der Aalst, Workflow Data Patterns, informe técnico, FIT-TR , Queensly: University of Technology, N. Russel, A. Hofstede, D. Edmond y W. Van Der Aalst, Workflow Resource Patterns, Beta Working Paper Series, 2004, pp J. D. Pérez, A. Durán, A. Ruíz Por qué OMG ha elegido a BPMN para modelar Procesos de Negocio si ya existe UML?, Sevilla, España: Depto de Lenguajes y Sistemas Informáticos, Universidad de Sevilla, primer puesto en el Premio Anual al Mérito Investigativo Ingeniería y Ciencias Básicas Categoría Docente, de la Universidad de Boyacá. Juan Federico Gómez Estupiñan, es Ingeniero de Sistemas de la Universidad Distrital, Especialista en Telemática de la Universidad de Boyacá, Magister (c) en Ciencias de la Información y las Comunicaciones de la Universidad Distrital. Desde hace 21 años es docente universitario de pregrado y posgrado, fue Director del Programa de Ingeniería de Sistemas de la Universidad de Boyacá del 2003 al 2009, actualmente es el Jefe del Centro de Informática y docente investigador del programa de Ingeniería de Sistemas de la Universidad de Boyacá. Es coautor del libro Aplicación de Inspecciones y Pruebas de Software, ha publicado varios artículos de investigación en revistas indexadas y ha sido ponente en eventos académicos a nivel internacional. En el año 2006, obtuvo el segundo puesto en el Premio al Mérito Investigativo en Ingeniería y Ciencias Básicas Categoría Docente, de la Universidad de Boyacá. En el año 2013 obtuvo el 142

144 Las Ontologías en la Gestión del Conocimiento Organizacional María Luz Pérez Lancheros Resumen--- Este artículo presenta una exploración analítica sobre la conceptualización de ontología, tipos de ontologías y los principales métodos ontológicos usados para la representación del conocimiento organizacional. El trabajo incluye además un apartado para las conclusiones. Palabras claves--ontología, gestión del conocimiento, representación del conocimiento. Abstract This paper presents an analytical exploration of the conceptualization of ontology, ontology types and the main methods used for ontological representation of organizational knowledge. The paper also includes a section for conclusions Index Terms Ontology, knowledge management, knowledge representation. INTRODUCCIÓN Las ontologías son una forma de comunicar información de manera sencilla, en ellas se representan los elementos esenciales de un contexto de manera que la comunicación y construcción de conocimiento entre los diferentes miembros del negocio sea dinámico y fluya de manera eficaz y eficiente. En este se muestra a través de la exploración de algunos trabajos realizados, la importancia que tienen las Ontologías en el modelado de la organización, facilita al Ingeniero del Febrero 10 de Este trabajo es producto de la investigación que se adelanta con el grupo de investigación GYPROCAS, de la Facultad de Ciencias e Ingeniería de la Universidad de Boyacá. Ontologías en el Modelado del Negocio. Autor, Ingeniera María Luz Pérez Lancheros, conocimiento y al experto del conocimiento organizacional entender y mostrar los diferentes procesos de la organización. METODOLOGÍA Teniendo en cuenta que es un artículo de reflexión, la búsqueda y exploración de la información se realizó en diferentes fuentes documentales, se realizó una búsqueda bibliográfica de alrededor de treinta documentos entre artículos y trabajos de investigación, los cuales permiten generar una visión amplia sobre el uso de las ontologías en la gestión de la información en los diferentes procesos del negocio. Se seleccionaron para la reflexión, aquellos documentos que más se acercaban a la idea u objetivo del trabajo de investigación Ontologías en la Gestión del conocimiento Organizacional, que adelanta actualmente el Grupo de Investigación en procesos de Calidad de Software (Giprocas), de la Universidad de Boyacá; logrando identificar un marco ontológico que permita mejorar la comunicación entre el experto del negocio y el ingeniero del software, con el fin de facilitar la gestión del conocimiento previo a los requisitos de aplicaciones organizacionales. DEFINICIÓN DE ONTOLOGÍA Teniendo en cuenta el contexto específico para el cual se está realizando el estado del arte, es posible realizar un acercamiento apropiado sobre lo que significa una ontología en la gestión de la información organizacional. En su investigación (1), Soluciones Organizacionales a partir de Ontologías, el término 143

145 ontología se relaciona directamente con la filosofía del ser; es decir las características específicas que identifican al ser, llámese ser a cualquier objeto existente. Actualmente el termino ontología, se relaciona con la Inteligencia Artificial en lo que tiene que ver con la articulación entre la tecnología y la representación del conocimiento. En este sentido la relación se interpreta como una herramienta de generación de conocimiento dinámico con especificaciones claras, con la identificación de elementos esenciales de un dominio de conocimiento y las relaciones existentes entre estos; lo que permite que a nivel cognitivo se creen imágenes o ideas claras de un dominio determinado. Siguiendo (1) se puede definir una ontología como la representación gráfica en forma detallada de un dominio de conocimiento, a través de la identificación de elementos importantes que permiten describir un proceso relevante del negocio. La ontología permite que estos elementos se relacionen entre sí de manera que el conocimiento que se genere haga parte importante del flujo de información que circula al interior del negocio. Las ontologías permiten que el proceso de gestión del conocimiento del negocio sea una herramienta que facilite la integración de los diferentes actores de la organización en la generación de nuevo conocimiento y la articulación de la información propia de cada proceso. Teniendo en cuenta (2), con una ontología se logra identificar clasificar y relacionar elementos importantes de un contexto específico dentro de la organización, el objetivo de realizar este proceso es realizar la captura de las inquietudes de los diferentes actores del negocio en cuanto a la cantidad de conceptos que se manejan al interior del negocio y que resultan poco conocidos en el lenguaje tradicional. En este sentido se logra una integración, interpretación y comunicación eficaz y eficiente a lo largo y ancho del negocio. Productos, procesos y actores son elementos esenciales que con la ayuda de las ontologías se logran modelar en forma clara, facilitando el acceso, interpretación y comunicación de la información que fluye de estos y que es necesario que a nivel de la estructura organizacional se conozca y maneje muy bien. Una ontología es una herramienta que permite describir gráficamente la información de cada uno de los procesos del negocio, según (3) TOVE (Toronto Virtual Enterprise), la ontología se convierte en un modelo que representa un dominio de conocimiento, a partir del cual se organiza y define los conceptos de una situación específica. Es así que la apropiación de la información y del conocimiento se realiza en forma dinámica y significativa por parte de aquellos actores que hacen uso de ésta para ejecutar las funciones propias del rol que desempeña dentro de la organización. La identificación de los diferentes procesos y los elementos que hacen parte del negocio, son una actividad detallada y pormenorizada que se realiza con el fin de tener en cuenta información precisa y clara, que de otra manera es poco posible identificar fácilmente, en este sentido todos los detalles y elementos esenciales harán parte del modelado que se realizará a través del diseño de la ontología. Una ontología como herramienta de representación del conocimiento, se soporta de algunos elementos básicos, los cuales guardan cierta relación entre sí, lo que permite la especificación de un dominio determinado. Estos elementos son: clases, relaciones, instancias, atributos. (4). Las clases son la representación gráfica de los objetos, sus características y relación con los demás elementos que forman la ontología. Para lograr entender un poco más, pongo como ejemplo la clase Estudiante, objeto del cual se pueden identificar las características que lo describen claramente; características o también llamados atributos: nombre, cédula, edad, estatura, programa, dirección y teléfono. Las clases se representan por un rectángulo dividido en tres partes; en la primera parte se escribe el nombre de la clase, en la segunda se escriben las características o atributos y en la tercera parte van los métodos, es decir lo que puede hacer esta entidad. Otro de los elementos que conforman la ontología son las relaciones o interacción que existe entre las clases; conexión que existe entre una y otra clase permitiendo el flujo y generación de conocimiento organizacional, estas son llamadas herencia, que significa que una clase hereda o arrastra atributos de otra clase, es decir que la existencia de una clase depende de la existencia de otra. Por ejemplo las 144

146 clases materia y curso, heredan atributos de estudiante, por lo cual la clase curso y asignatura dependen de la existencia de la clase estudiante. Esta relación se representa en la Figura 2. Fig 2. Se representa una clase, nombre, sus atributos y métodos que la caracterizan. CURSO CÓDIGO NOMBRE PROGRAMA INSCRIBIR APROBAR REPROBAR ESTUDIANTE CÓDIGO NOMBRE PROGRAMA DIRECCIÓN INSCRIBIR APROBAR REPROBAR ESTUDIANTE CÓDIGO NOMBRE PROGRAMA DIRECCIÓN INSCRIBIR APROBAR REPROBAR ASIGNATURA CÓDIGO NOMBRE PROGRAMA INSCRIBIR APROBAR REPROBAR Fig 3. Representa los atributos que heredan las clases Curso y Asignatura, de igual forma estas clases pueden colocar otros atributos si se considera necesario. Las instancias son los objetos reales que representan a una clase, la clase como tal es la definición de un objeto y las instancias son los objetos que representan a esa clase. Estos elementos son los que permiten identificar los conceptos propios de un dominio y van a conformar la representación ontológica de la información de un contexto específico; en este sentido la dinámica de desarrollo del negocio se apoya de herramientas claras y que brindan un flujo de información coherente y entendible a cada uno en los niveles de la organización. TIPOS DE ONTOLOGÍAS PARA LA REPRESENTACIÓN DE LA INFORMACIÓN EN LA ORGANIZACIÓN Las ontologías usadas en el modelado del negocio, son aquellas que permiten identificar y articular los diferentes dominios de conocimiento del negocio; en este sentido, en el presente artículo se mencionarán las ontologías usadas con mayor frecuencia en este ejercicio de gestión del conocimiento organizacional. (2) Hace uso de tres tipos de ontologías para la gestión y representación del conocimiento del negocio. Ontologías Genéricas Esta incluye la clasificación y conceptualización del negocio, aquellos conceptos que hacen parte de la información propia de la organización como tal, que sin ser información generada a partir de los procesos influyen de manera significativa en la toma de decisiones. Este tipo de información en algunas ocasiones resulta compleja de apropiarse por parte de los diferentes actores del negocio. La representación de la información a través de una ontología le imprime un valor agregado, que se hace visible en el sentido de pertenencia que demuestran los funcionarios en la eficacia y eficiencia al desarrollar posteriormente las actividades. Este tipo de ontologías aun siendo uno de los más usados, es de los más complejos de diseñar por el tipo de información que representa. La aplicación de estas ontologías se da como repositorios para la organización de conocimientos e información, tanto de tipo corporativo como científico. Ontologías de Dominio Estas se encargan de tomar un área específica del negocio, con el fin de realizar un análisis detallado del vocabulario generado en los procesos y 145

147 procedimientos que se llevan a cabo a fin de lograr hallazgos importantes a través del análisis y el modelado o representación. Este tipo de ontologías permite una visión clara de un dominio, pues dan cuenta de la especificidad de cada uno de sus componentes, disgregándolos de tal manera que la información que se logra modelar de un dominio específico permite conocer, interpretar, asimilar, dominar y comunicar información con un valor agregado para que la toma de decisiones sea eficaz y eficiente; en el sentido de cumplir con las exigencias de calidad que la información debe cumplir en el negocio. Este tipo de ontologías es usado en medicina, aplicaciones militares, electrónica, en el área automotriz. Ontologías de Aplicación Son las ontologías diseñadas para un proceso específico del negocio, una ontología diseñada para representar el flujo de información que involucra el proceso de nómina del negocio, es una ontología en la que se van a detallar cada una de las actividades que se ejecutan para gestionar y administrar la información que se genera del proceso nómina. Este tipo de ontologías es empleada en la construcción se SBC o el diseño de librerías digitales. (5) Establecen que las ontologías en sus contextos facilitan la comunicación entre los diferentes roles del negocio, comunicación que se establece alrededor de los conceptos de un dominio específico de conocimiento, esta efectiva comunicación permite que el conocimiento fluya en forma eficaz y eficiente a lo largo y ancho del negocio, dando cuenta de la evolución y competitividad apoyada por herramientas de representación del conocimiento como los son las ontologías. TIPOS DE ONTOLOGÍAS USADOS EN LA GESTIÓN DEL CONOCIMIENTO ORGANIZACIONAL. El modelado del negocio a través de ontologías, ha tomado importancia en los últimos años, en el sentido de lograr que la comunicación se convierta en un medio efectivo entre los integrantes del negocio en la medida que haya un flujo de información clara y significativa. En este sentido se han diseñado modelos ontológicos para el modelado del negocio. A. Modelado Cyc Fue creado por (6), propietario de la empresa Cycorp, con el fin de establecer reglas para simular el comportamiento humano, para el procesamiento o generación de nuevo conocimiento se usan herramientas de lenguaje natural. El modelo facilita a través de inteligencia artificial ensamblar una ontología que permita el razonamiento de tipo humano basando dicha ontología en reglas. Los resultados que se obtengan de este proyecto permitirán aplicar diferentes técnicas de razonamiento en varios dominios, como la Web Semántica, Software, Data-mining e interacciones del lenguaje natural. Lenat ha desarrollado un lenguaje de programación llamado Cyc, basado en lógica de predicados de primer orden, es un sistema de código abierto, el cual usara para el desarrollo del proyecto Cyc. B. Methontology Metodología desarrollada por el grupo de Ingeniería Ontológica de la Universidad Politécnica de Madrid (7). Este grupo fue fundado en 1995 y trabaja investigaciones en las áreas de Ingeniería Ontológica, Web semántica, Social y Linked data, Lenguaje Natural, e-ciencia Semántica y la Internet del futuro 19. El objetivo de esta metodología es permitir la construcción de ontologías a nivel de conocimiento, esta metodología incluye la identificación del proceso de desarrollo, un ciclo de vida basado en la evolución de prototipos y técnicas particulares para apoyar las actividades. Esta propone conceptualizar las ontologías con un conjunto de representaciones intermedias a través de conceptos con el fin de modelar relaciones, constantes, atributos, axiomas formales y reglas. Con esta metodología se propone especificar las expresiones de las reglas haciendo uso del formato si <condiciones> entonces <consecuente>, La parte izquierda de la regla es una conjunción de 19 El grupo comparte sus investigaciones y logros en la siguiente dirección electrónica. 146

148 condiciones simples, mientras que la parte derecha es una simple expresión de un valor de la ontología 20. C. Método Uschold y King (5) Exponen que esta metodología permite representar el conocimiento de un dominio del negocio a través de una ontología que se desarrolla con los siguientes pasos o etapas: identificar el propósito, capturar los conceptos y las relaciones entre los conceptos, codificar la ontología, evaluar la ontología y documentar la ontología. D. OntoMN Trabajo realizado por (2), quien diseñan una metodología para el modelado del negocio, el cual consiste en la representación de los elementos esenciales que caracterizan el negocio. Esta metodología está estructurada a partir de tres modelos. El primer modelo es producto, el cual permite identificar y definir los productos que los actores deben elaborar durante el proceso de modelado haciendo uso del método. La aplicación de este concepto genera una lista de aspectos y conceptos, diccionario de conceptos, un modelo conceptual y el código de la ontología. El segundo modelo de procesos, permite realiza una descripción de los diferentes procesos y actividades que los integrantes del equipo ejecutan para la construcción del modelado del negocio a través del diseño de la ontología. OntoMN propone una serie de procesos para elaborar con base en estos la ontología: análisis del dominio, conceptualización, validación del modelo conceptual y divulgación de la ontología. El tercero y último modelo de OntoMN es el de actores, que permite describir cómo organizar el equipo de trabajo que diseñará la ontología; el grupo de trabajo está conformado por los actores, cada uno de estos tiene un rol o responsabilidad dentro del grupo de trabajo, el líder del grupo, el experto del dominio, el modelador, el revisor y el usuario. El rol de estos actores esta articulado con las actividades del modelado de procesos. 20 https://sites.google.com/site/jojooa/inteligenciaartificial/definicion-de-methontology-que-es-methontology E. Método Kactus Este método (8) permite a través de la abstracción de la información construir la ontología, es decir, a partir de este método se construye una ontología reusando conocimiento de diferentes sistemas durante su ciclo de vida, permite la construcción sobre una base de conocimiento ya existente. F. Método Osterwalder. (9) Diseña esta metodología en nueve bloques en conjunto entre la Universidad EAFIT y UNE EPM telecomunicaciones. El objetivo de esta herramienta, como la considera el autor, es permitir la comunicación clara de los diferentes elementos que constituyen el negocio, elementos que permitirán diseñar el modelo del negocio de una forma sencilla a través del trabajo en equipo, donde se genera una lluvia de ideas alrededor de cada uno de los nueve bloques, en donde cada participante y a través de post-it coloca en un tablero ideas y sugerencias del bloque en el que están trabajando. Este trabajo se realiza con la ayuda de una aplicación llamada Simon, que permite la participación de personas que están muy ocupadas y están distantes geográficamente, su participación la realizan desde cualquier lugar y en cualquier momento, aportando ideas significativas al proyecto. De esta manera se logra que personas claves para el proyecto aporten ideas realmente importantes para la identificación de la información clave en cada uno de los bloques desde el lugar donde se encuentren. G. Metodología Salus En su trabajo (10) de investigación para el diseño de una red de ontologías para el área de la salud describe que el objetivo de este trabajo es crear una herramienta que permita incluir varios dominios para el sector salud, así como para el control de la calidad de los sitios web relacionados con esta área en particular. Para esto hace uso de ontologías ya creadas, y si el desarrollo lo requiere será necesario diseñar ontologías partiendo de cero. Además basará 147

149 el trabajo en la metodología de desarrollo de ontologías del proyecto europeo NeOn, que ha realizado aportes significativos en la identificación de las actividades necesarias para el diseño de ontologías. La autora toma como referencia la metodología propuesta por el proyecto NeOn para la especificación de la ontología, la cual está conformada por siete elementos claves para la conformación del documento de requisitos, ideal para el diseño de la ontología Salus. Ontología usada por instituciones de salud como el Instituto Nacional de Estadísticas de la República Bolivariana de Venezuela. VI. CONCLUSIONES Se ha logrado a través de los diferentes autores e investigaciones citados, encontrar diversos conceptos de ontología según el contexto, sin embargo cuando se trata del uso de ontologías en Ingeniería de Software para el modelado del negocio se ha identificado que son herramientas que permiten representar el conocimiento basadas en vocabulario específico que describe cierta realidad en ocasiones compleja para quienes hacen uso de este. La revisión y análisis que se ha realizado a la literatura encontrada deja ver que las ontologías se han convertido en una herramienta muy útil en la representación de la información a través del modelado de los procesos del negocio, permitiendo dar claridad y seguridad en el manejo de la información que se genera en cada uno de los procesos del negocio. De igual manera se han identificado los tipos de ontologías más usadas para realizar la representación de la información: las ontologías de dominio son las que permiten realizar un análisis detallado del vocabulario generado en los procesos que se realizan en áreas específicas del negocio con el fin de lograr hallazgos importantes para el óptimo modelado de estos procesos. De igual forma están las ontologías genéricas, las cuales permiten la clasificación y conceptualización de aquellos conceptos que no son propios del negocio, pero aportan a la toma de decisiones. Por último están las ontologías de aplicación diseñadas para un proceso específico del negocio, estas representan el flujo de información de un área específica del negocio. El uso de ontologías en la representación y modelado de la información ha permitido el desarrollo y uso de aplicaciones específicas, permitiendo que sea dinámico el proceso de construcción de esta a partir de los elementos que la conforman, clases, herencia, subclases, atributos, métodos. Otra de las características del uso de ontologías en el modelado del negocio, que se logró apreciar a lo largo de la exploración es que dicho modelado se realiza basado en metodologías que permiten ver claramente la forma de representación y diseño de la ontología y lógicamente del modelo de la información en general, algunos de los modelos usados son el methontology, Uschold y King, OntoMN, Kactus, Osterwalder y Salus. BIBLIOGRAFÍA [1] E. Granados, E. Rojas. (2011). Soluciones Organizacionales a partir de Ontologías. [Online]. Available: ticle/view/26719/ [2] M. Rojas, J. Montilva, y J. Barrios. ONTOMN: Un método para hacer ontologías durante el modelado del negocio. Revista Colombiana de Tecnología Avanzada, 1(13) [4] T.R. Gruber. (2001). Qué es una Ontología. [Online]. Available: [6] L. Douglas. (1994). Proyecto Cyc. Retrieved from. [Online]. Available: millones-de-reglas/, [7] I. F. Vitelli. (2011). Aplicación de METHONTOLOGY construcción de una Ontología en el obiología. Caso de Estudio: Idenilos Gram Negativos no Ferment Glucosa (BGNNF). Available: i/sitios/51/proyectos.html. [8] C. López, F. J. García. (2004). Los contenidos educativos y la Web semántica. [Online]. Available: 148

150 wnload/.../ [9] A. Osterwalder. (2010). Innovación en Modelos de Negocio: La Metodología de Osterwalder en la práctica. Revista MBA EAFIT. [Online]. Available:http://www.eafit.edu.co/revistas/revistamb a/documents/innovacion-modelo-negocio.pdf.[10] A. Díaz. (2009). La Ontología Salus como una red de Ontologías. CI, 4(2). [Online]. Available: w/v4n2p7-18. Primer Autor. María Luz Pérez. Samacá-Boyacá Ingeniera de Sistemas Universidad de Boyacá, Tunja-Boyacá Colombia Especialista en Telemática- Universidad de Boyacá, Tunja- Boyacá Colombia Maestría en Tecnologías de la Información aplicadas a la Educación- Universidad Pedagógica Nacional, Bogotá-Cundinamarca Colombia. (c). 149

151 Ziriguidum in Nursing data: Cofen`s Data Treatment Methodology PERSEGONA 1, M. F. M.; ALBUQUERQUE 2, G. L.; SOUZA 3, J. C. F; FREIRE 4, N. P.; CRUZ 5, M.M.; VALENTIM 6, G. H. O.; GONZÁLEZ 7, G. R. A. Abstract Ziriguidum is a Brazilian expression that may be translated as a harmonious sound mixing ending up in samba. In such way, in this article, Ziriguidum in Brazilian Nursing database is the integrated and harmonious use of several free softwares and institutional databases that allow knowledge extraction to be applied in the management and creation of public policies applicable to Brazilian nursing. In order to develop such new knowledge, PostgreSQL with PostGIS, Pentaho BI Suite and I3Geo systems were employed. The appliance of such softwares on survey data resulted in tables, graphics, thematic cartograms and describing texts duly incorporated to the Analysis Report on professional nurse inscription data existent in Regional Nursing Councils during the year Such data was originated from the Federal Council of Nursing, 27 Regional Nursing Councils, as well as the Brazilian Institute for Geography and Statistics (IBGE), Brazilian Internal Revenue Secretary, Health Ministry and Education Ministry. A LiveCD named Nursing Atlas was also produced. In it, graphics, tables and thematic cartograms are available for use among nursing professionals and academic milieu. Index Terms Nursing, Free Software, Geographic Information Systems, Public Policy, Business Intelligence. T INTRODUCTION HE Cofen/Regional Nursing Councils System comprises one Federal Council located in Brasilia-DF, 26 Regional Councils plus 107 more subsections all over the national territory as shown on cartogram 1. Red dots on cartogram 1 represent regional councils while blue ones represent subsections. The yellow star represents Cofen itself. The large majority of Coren have subsections located in several towns as to be near to those nursing professionals none residing or not working at state capitals. Cartogram 1. Cofen/Regional Nursing Councils System. Source: COFEN, Responsibility over nursing professional data belongs to Coren while Cofen is responsible for controlling and supervising the issue of professional s ID cards (BRASIL, 1973). In such scenario, information systems, communication channels and data basis are indispensable for registering services, logging, inscription, and professional ID issuing and control. However, transactional data belonging to Nursing professional s management systems existent in Coren, keep very useful information and knowledge 150

152 both to Cofen and Coren, relating to strategic management and business intelligence. Once treated, data on the data basis help improving quality of services rendered, improvement of policies aimed towards Brazilian public health and contribute to increasing satisfaction among health professionals. INFRASTRUCTURE Research employed the following free softwares in order to assemble the technological infrastructure for the Business Intelligence (BI): SGBD PostgreSQL: is a free Relational Data Base Management System, licensed through BSD (Berkeley Software Distribution). Competing in the market with proprietor systems such as Oracle, MS SQL Server and DB2 (PERSEGONA, 2010) PostGIS: is an extension of SGBD PostgreSQL allowing objects GIS (Geographical Information Systems) to be stored in the data basis (PERSEGONA 2010) Pentaho BI Suite: is an open code for business intelligence. The solution covers data extraction, treatment and cleaning areas, as well as reports, analysis and data mining. I3Geo (Interactive Interface for Internet Geoprocessing Tools): is a system developed by the Environment Ministry (MMA) for employing on National Environmental Information System (Sinima). I3Geo is a geographical information system for use in a Web environment applying Mapserver + PHPMapscript for the processing of geographical data and an interface based on javascript language. Fig. 1. Data integration scheme for national data basis. Source: Developed by the authors. Regional Nursing Councils (Coren): The 27 Nursing Regional Councils supply data concerning inscription in its jurisdiction. Federal Nursing Council (COFEN): integrates inscription data of the 27 Coren and partner institutions (Internal Revenue, INEP, DATASUS, IBGE). Internal Revenue Secretary/Finance Ministry: supplies present contacts of nursing professional. INEP/Education Ministry (Anisio Teixeira National Studies and Educational Data employed for creation of Nursing Data Warehouse were supplied by: Fig. 2. Ziriguidum methodology for Cofen s data treatment. Source: Developed by the authors. 151

153 Researches Institute): supplies annual list of superior studies institutions (IES). DATASUS/Health Ministry (Computing Department of the Brazilian Health System/Health Ministry): supplies the National Health Establishments Register, on which the active health professionals and their respective technical representatives are logged Brazilian Geographical Statistical Institute/Ministry of Planning, Budget and Management: supplies data belonging to the 2010 census, geographical data on Political Brazil and identification methodology of geographical areas and also aggregation and disaggregation of data. Fig. 1 represents data sources employed in the creation of Nursing DW. METHODOLOGY Data from the 27 Corens was aggregated by Cofen in MS Excel spreadsheet format. Data mining was accomplished during the period from March to May, Analysis of such data was executed from June throughout August, 2012, see fig. 2. The major difficulty in collecting data was due to the inexistence of a sole system of Nursing Professional Management in the Cofen/Corens system. Each Coren is autonomous to contract or develop its own computing technology for such purpose (COFEN, 2011-a). Such autonomy for acquisition and development of managing systems causes a proliferation of several incompatible solutions among themselves, for having been developed with different technologies, as Delphi, Java, Visual Basic programming languages, among others, and employing heterogeneous data basis as MS SQL Server in its several versions (2000, 2005 and 2008), Oracle, PostgresSQL, Access, etc. Both such facts are enough to illustrate the difficulty in building up the integration of the Coren data in a sole data basis of Brazilian nursery (COFEN, b). Due to such fact, normalization and integration of data purveying from Coren was accomplished in a unique data base, originating the Data Warehouse of Nursery. For such purpose, PostgreSQL data basis with PostGIS extension was applied, using Pentaho BI Suite system to load data in the DW. Such bank was chosen through the following criteria: to be a free software solution; to be consonant with policies and technical specifications existent on inter-operability patterns of electronic government e- PING; Application servers and data bank must have enough capacity for processing different hardware architectures, concerning the necessity of keeping suppliers principle of independence; to be able to represent data in thematic charts form; Data must be accessible and contemplate multiple formats, especially those supported by ODBC and JDBC patterns, in order to guarantee the necessity of operation interaction among environments, and also have portability and compatibility: the system must be projected as to be easily handled to another data bank. Another identified difficulty was the content in the several data basis of the Corens, where different filling forms do not apply to a consistent pattern. As so, such form contents had to be standardized: Name of Cofen, professional category, professional situation, date of birth, nationality, marital status and age. After integration and treatment of data belonging to the 27 Coren we arrived to a total of 2,341,125 valid registers. From such data basis received, not all referred to active professionals inscriptions. As so, the non-active professionals were excluded from the final database. A new filter was applied as to discriminate registers of active professionals. After this operation, the new research basis was reduced to 1,982,306 active professional inscriptions. 152

154 x = quantidade _ inscrições _ profissionais x1000 quantidade _ habi tan tes Eq. 1. Equation for obtaining proportion of nursing professionals for each 1000 in habitants. Source: COFEN, Thus, we verified duplicated data with name of professional filling void. To correct such inconsistency of the data a new filter was applied resulting in a total of 1,535,568 active nursing professionals inscriptions in the whole Cofen- Regional Nursing Councils System that represent a total of 1,429,951 nursing professionals logged in the data base (COFEN, 2012). Fig. 3. IBGE formation geocode. Source: Territorial mesh 2010 Census, CETE/DGC/IBGE/MPOG. The charts developed were colored, in degrade tonalities, to identify the group of information they represent, and indicate the quarter where the data may be found. Data presented on tables and graphics over the number of professional nursing inscription per capita, obeyed relation established by the World Health Organization (WHO, 2006) of one nursing professional per 1,000 inhabitants. Equation applied for such calculation was: Number of inhabitants in each state, region and Brazil was obtained through IBGE 2010 Census. Thematic charts production employed shapesfiles produced by IBGE, which were transformed in a geographical databank at PostgreSQL and PostGIS. Geocode field was used as a chart primary-key, which identifies spacial objects represented on a chart or map. Another field employed is the geom that stores the binary code in order to design the chart or map of a geographical information system, and is named geocoding. Such field stores the geographical object which will be represented for spatial analysis. Geocoding is the operation which allows, without ambiguity, the location of an object according to a common reference system or geographically precise. Geocoding is also the automatic attribution operation or the geographical coordinates manual or identification codes to an identification attribute of an ensemble of attributes concerning a certain object. shp2pgsql.exe s 4291 c I W latin1 c:\areas_censitarias\11see250gc_sir geo_dados.br_area_censitaria_2010 > c:\areas_censitarias\sql\11_area_censitaria_2010.sql Command. 1. Creates and loads a chart of the SGBD PostgresSQL. Source: Elaborated by the authors. shp2pgsql.exe s 4291 a W latin1 c:\areas_censitarias\11see250gc_sir geo_dados.br_area_censitaria_2010 > c:\areas_censitarias\sql\11_area_censitaria_2010.sql Command. 2. Loads data on the already created chart in the SGBD PostgreSQL. Source: Elaborated by the authors. psql.exe E U postgres cofen < c:\areas_censitarias\sql\31_area_censitaria_2010.sql Command. 3. Loads data in the data basis already created in SGBD PostgreSQL. Source: Elaborated by the authors. Following, commands used to mount the necessary tables for the Nursing DW are described. Commands employed were those used to transform shapefiles into SQL archives, also applied to charge the DW. The 1 and 2 PostgresSQL commands under mentioned convert the shapefiles archives in SQL archives in order to be loaded on SGBD PostgreSQL. The first command generates a SQL archive which will have the necessary commands to create the database and load data belonging to the table br_area_census_2010 of the remaining states of the Federation in the already created table. For files with size over 100MB, employing command #3 on the PostgreSQL command panel is necessary in order to load the chart. Once the data basis ready and loaded, now we must go for the Data Warehouse (DW) of Nursing. For this task we used the Pentaho BI Suite to integrate various data bases, as shown in Fig

155 SELECT teste2.categoria_profissional FROM inscricoes.teste2; View 1. Data view without geographic attribute. Fig. 4. Creation and loading of Nursing DW employing Pentaho BI Suite. Source: Elaborated by the authors. SELECT fato_inscricao.fk_categoria, dim_categoria.categoria_profissional, fato_inscricao.fk_geo_regiao, br_regioes.nome, br_regioes.the_geom FROM inscricoes.fato_inscricao, inscricoes.dim_categoria, geo_dados.br_regioes WHERE fato_inscricao.fk_categoria = dim_categoria.pk_categoria AND fato_inscricao.fk_geo_regiao = br_regioes.gid GROUP BY fato_inscricao.fk_categoria, dim_categoria.categoria_profissional, br_regioes.nome, br_regioes.the_geom; View 2. Data view with geographic attribute. Fig. 5. Nursing Warehouse Data created with Pentaho BI Suite on SGBD PostgreSQL with PostGIS. Source: Elaborated by the authors. Fig. 5 presents the created Nursing DW which dimensions to be employed in the consultation. The br_states and br_regions are the ones that have the geographical attributes Once the DW is created and loaded, the next step was its integration with I3GEO to represent data as thematic charts. But prior to that, we performed three tests to determine the best structure for view on the DW. The first one was a simple consultation without geographic attribute to the professional category table, which presented performing time of 1 second to return as 24 lines answer, see view 1. The second view is the same as first one plus the crossing with the geo region table to increment geographical attribute to obtain a thematic cartogram, and that presented 20 minutes execution time, see view 2. The third view is an optimization of view 2 in order to reduce response time, having in its structure the geographic attribute to obtain the thematical cartogram, see view 3. This last view took milliseconds to run. Performance gain was achieved by separation of the geographic attribute of the consultation. For such purpose a view (consultation) was created in the SGBD PostgresSQL that brings the desired result and afterwards such result is crossed with the geographical table to increase geographical attribute. RESULTS ACHIEVED The employment of a technological infrastructure next to Nursing DW allowed making several products as: National Nursing Professionals Basis; Report on nursing professionals data annually analyzed; Confectioning of a LiveCD denominated Nursing Atlas; Information about Nursing professionals universe; Subsidies on information and knowledge about Brazilian nursing for the leaders decision process in Cofen 154

156 Regional Nursing Councils system; and Subsidies for elaboration of public health and nursing policies. Cartograms 2, 3 and 4 present the georefferenced outputs that the implemented structure is capable of producing employing the DW and SIG I3Geo. As so, chart 2 presents the quantity of nursing professionals by macro regions in Brazil. Cartogram 3 illustrates the quantity of nursing professionals by state and cartogram 4 presents the quantity of nursing attendants by state. Another way to present the data allowed by the infrastructure is through tabulation presented on Table I. TABLE I PROFESSIONAL NURSING INSCRIPTIONS BY CATEGORY IN 2011 Professional Number of % Category inscriptions Nurse 314, % Technical of nursing 698, % Auxiliary of nursing 508, % Attendant of nursing 14, % Midwife % Uninformed % Total 1,535, % Source: Elaborated by the authors. It is also possible to produce graphics in several formats (pizza, bars, columns etc.), as can be seen in Chart

157 V. FINAL CONSIDERATIONS The Federal Nursing Council is the largest category class in Brazil, with 1,535,568 inscriptions of active professionals in the Cofen Regional Nursing Councils System, which represent 1,429,951 nursing professionals logged in the data base in Cofen s Ziriguidum methodology for data treatment employed free softwares to assemble the infrastructure of nursing data Warehouse. The softwares employed were PogreSQL version 9.1, Pentaho BI Suite version CE and I3Geo version 4.6. Free softwares turned feasible the implementation of sophisticated TIC infrastructures for conceiving Business Intelligence (BI) analysis, which in owned platforms would show themselves non feasible due to high cost in acquisition of softwares and necessary licenses. The great amount of data and its distribution through the 27 Regional Councils of Nursing makes the database integration an arduous job. For such reason, employing specialist softwares integrated with advanced data treatment methodologies are very useful to obtain innovating answers and visions of data that allow finding data relationship and hidden knowledge in the mass of data of the several database existent in the Cofen Corens System and the several governmental offices. Without adequate treatment of the data mass, the only result is info-intoxication (PERSEGONA, PERSEGONA, 2009). In some situations, tabled data of systems (reports and webs) aren t sufficient as to represent situations in the real world in a complete visual form. That s when the representation of data in the thematic cartographic shape helps in the representation of great volumes of data and allows perception of knowledge and information usually hidden behind in these masses of data. Among the several difficulties and challenges in the implantation of Nursing DW is the processing of spatial view, as for the geographic attribute is usually a very heavy data to be processed. On such account view performance tests were realized in order to find a structure that presented the necessary speed in its processing and, at the same time, allowed itself to be employed in obtaining thematic cartograms on I3Geo. The solution was to create a view of the data of interest in the DW and, afterwards, relate this view with the geographical table, as to aggregate the corresponding geographical attribute with the spatial dimension in which the thematic cartogram is wanted. In the example presented in this article, we managed to reduce processing time from 20 minutes to less than 1.5 second. Besides that, the use of a Geographical Information System (SIG) allows better understanding of the behavior of cities, regions and countries through visual representation of tabulated data and perception of tendencies which in textual format would not be perceived on account of the great volume of data to be analyzed. The next step for future is to apply statistical techniques and Data mining computational methods in order to find and to improve knowledge in Nursing Sciences and to contribute to Health policies agencies. REFERENCES BRASIL. Software Livre. Brasília: ITI, s/d.. Lei nr /73, de 12 de julho de Dispõe sobre a criação dos Conselhos Federal e Regionais de Enfermagem e dá outras providências. Disponível em: <http://site.portalcofen.gov.br/node/4162>. Acessado em: 10/08/ Lei nr /86. Dispõe sobre a regulamentação do exercício da Enfermagem e dá outras providências. Disponível em: <http://www2.camara.gov.br/legin/fed/lei/ /lei junho normaatualizada-pl.pdf>. Acessado em: 2/08/2012. COFEN. Resolução Cofen nr. 372/2010, de 20 de outubro de Aprova e adota o Manual de Procedimentos Administrativos para Registro e Inscrição dos Profissionais de Enfermagem e dá outras providências. Brasília: Cofen,

158 . Análise de dados dos profissionais de enfermagem existentes nos Conselhos Regionais. Brasília: Cofen, 2011-a.. 2ª Pesquisa sobre a Infraestrutura de Tecnologia da Informação e Comunicação dos Conselhos Regionais de Enfermagem. Brasília: Cofen, 2011-b.. 2ª Análise de dados dos profissionais de enfermagem existentes nos Conselhos Regionais. Brasília: Cofen, IBGE. Primeiros dados do Censo Rio de Janeiro: IBGE/Coordenação de População e Indicadores Sociais, Disponível em: <http://www.ibge.gov.br/censo2010/primeiros_dados_divulgados/i ndex.php>. Acessado em: 08/03/2011. OMS. Relatório Mundial de Saúde 2006: Trabalhando juntos pela Saúde/Organização Mundial de Saúde. Brasília: Ministério da Saúde, Disponível em: <http://www.who.int/whr/2006/en>. Acessado em: 21/03/2011. PERSEGONA, M. F. M. Cadastro Nacional de Inadimplentes Ambientais: Fundamentos e Modo de Operação Tese (Doutorado em Política e Gestão Ambiental) Centro de Desenvolvimento Sustentável, Universidade de Brasília, Brasília. PERSEGONA, M. F. M. e PERSEGONA, A. L. M. Os segredos do Google: Como fazer uma pesquisa inteligente na Internet. Brasília: IP Consultoria, Autors: 1 Computer Scientist - Ph. D. in Sustainable Development - Federal Nursing Council. 2 Nurse - Ph. D. in Nursing Philosophy - Federal Nursing Council. 3 Statistical - Ph. D. in Economy - University of Brasília. 4 Communication - Graduated in Communication - Federal Nursing Council. 5 Telecommunications Engineer - Specialist in Information Technology Management - Federal Nursing 6 Systems Analyst - Graduate in System Analyst - Federal Nursing Council. 7 Administrator - Specialist in Computational Statistical Methods - Federal Nursing Council. 157

159 Seguridad en Redes Inalámbricas de Acceso local bajo parámetros de uso de Herramientas libres Ballesteros C. Juan, member IEEE, Chaparro B. Fabián, member IEEE Abstract in this paper we present an audit IEEE x networks to check how secure are these networks for use in the home and office, will be used for this purpose free software Linux with aircrack suite, tests were done for the 2 encryptions WEP and WPA this most popular encryptions for security in wireless networks, also show different forms to develop attacks for example denial of service sniffers, fake authentication. The dictionary attack is the most popular and will be the starting point for the audit, but it is important also to mention other equally effective methods to develop this attack. Index Terms WIFI, WLAN, Wireless, WPA WEP. I. INTRODUCCIÓN El término red inalámbrica (Wireless network en inglés) [1], es un término que se utiliza en redes para designar la conexión de nodos sin necesidad de una conexión física (cables), la misma se presenta por medio de ondas electromagnéticas. La transmisión y la recepción se realizan a través de puertos a convenir bajo el protocolo de comunicación pertinente. Una de las principales ventajas es la notable disminución de costos al despliegue de soluciones cableadas, ya que se elimina el uso del referente cable Ethernet y la disminución de conexiones físicas entre nodos; sin embargo no todo son ventajas, por otro lado se tiene una considerable desventaja derivada de la fácil vulnerabilidad en seguridad de la transmisión que requiere la implementación de políticas exigentes y robustas para evitar el ingreso a la infraestructura. La conexión inalámbrica que se establece entre los usuarios remotos y una red proporcionan a las empresas flexibilidad y beneficios muy importantes como son movilidad y el poner en red equipos donde el acceso es difícil para desplegar soluciones cableadas. Uno de los principales problemas que tiene que afrontar una red Inalámbrica es la seguridad de la información que se transmite. El no contar con un medio guiado como el cable, en donde el acceso tiene que hacerse directamente sobre el medio físico acarrea permitir el tendiente fácil acceso a la información que viaja por el aire; por lo cual, usuarios no autorizados pueden tentativamente obtener dicha información y acceder a ella para obtener los beneficios derivados de políticas no robustas frente a procesos débiles de restricción. La flexibilidad y la movilidad que nos proporcionan estas redes inalámbricas han hecho que su utilización crezca día a día. En Colombia para el año 2005 comenzó en firme la proliferación de este tipo de soluciones para la interconexión de información. Actualmente es común ver esta solución en el sector empresarial y en el hogar, derivado de la flexibilidad de instalación y uso donde no es necesario un medio físico directo proporcionado por cables, sumado a que ello conlleva el no detrimento en cuánto la estética y el ahorro de costos en cableado estructurado y adecuamiento locativo necesario para las instalaciones. El presente documento muestra una investigación que relaciona la visión general del estado actual de la seguridad en las redes inalámbricas, particularmente las WLAN (Wireless Local Access Network), acompañada de estándares pertinentes y justificando la importancia en cuánto a la vulnerabilidad y riesgos para los usuarios que hacen uso de la misma, el objetivo de los autores no es concientizar a los usuarios sobre la supresión del uso de esta tecnología, por el contrario lo que se intenta es justificar e informar la importante necesidad de blindar las redes inalámbricas de las cuales hacen uso, para evitar la alteración y/o eliminación de la información que circula por estas redes de datos. Lo que resta del artículo se organiza de la siguiente manera. En la sección II se define el marco conceptual utilizado. En la sección III se caracterizan las principales debilidades de las redes inalámbricas, que será objeto de estudio para parametrizar los resultados de los escenarios 158

160 propuestos de evaluación y obtención de resultados. Posteriormente en la sección IV se muestra el proceso de la auditoría bajo la suite Aircrack de Linux. La sección V describe los experimentos realizados y los resultados obtenidos para que finalmente en la sección VI se presenten las conclusiones del trabajo y unas consideraciones de trabajo futuro. II. REFERENTES Para Realizar una auditoria en redes WIFI en banda libre, generalmente de 2.4 GHz y verificar el grado de vulnerabilidad de las redes WLAN[2] bajo la caracterización de ataques de terceros y el uso de plataformas de uso libre, es necesario verificar el grado de seguridad de los tipos de encriptación como WEP y WPA [3] (los más usados), para determinar las vulnerabilidades de seguridad de estas llaves de encriptación. En primera instancia se referencia WEP [3][1] (Wired Equivalent Protocol), como un sistema de encriptación propuesto por el comité de la IEEE , implementado en la capa MAC y soportado por la mayoría de vendedores de soluciones inalámbricas. WEP comprime y cifra los datos que se envían a través de las ondas de radio. La tarjeta de red encripta el cuerpo y el CRC (Cyclic redundancy check) de cada trama antes de la transmisión utilizando el algoritmo de encriptación RC4 proporcionando por la RSA Security. La estación receptora, sea un punto de acceso o una estación cliente es la encargada de desencriptar la trama. WEP especifica una llave secreta compartida de bits para encriptar y desencriptar, utilizando la encriptación simétrica. La vulnerabilidad de WEP reside en la insuficiente longitud del vector de inicialización y lo estáticas que permanecen las llaves del cifrado pudiendo no cambiar en mucho tiempo, por ejemplo si utilizamos solamente una llave de 24 bits. WEP utiliza la misma llave para paquetes diferentes, lo cual acarrea el repetir a partir de cierto tiempo la transmisión continua, en este momento es cuando el intruso puede capturar suficientes tramas y determinar la llave compartida. En segundo momento los autores referencian WPA [3] (Wifi Protected Access), como un sistema desarrollado para proteger las redes inalámbricas, este protocolo intenta corregir las deficiencias del sistema previo WEP. WPA implementa el estándar IEEE i [4], creado por WIFI Alliance. El funcionamiento de WPA se basa en la autenticación de usuarios mediante el uso de un servidor, donde se almacenan credenciales y contraseñas de los usuarios de la red, WPA permite la autenticación mediante clave precompartida que de un modo similar al WEP requiere introducir la misma clave en todos los equipos que quieran conectarse a la red. La ventaja de WPA frente a WEP es que la clave precompartida solo se envía una vez y no como en WEP, donde el envío de la llave es constante, podemos denominar a este proceso un handshake que correlaciona la negociación de apertura entre el cliente y el router para el intercambio de información. III. PRINCIPALES DEBILIDADES EN REDES INALÁMBRICAS En primera instancia se relacionan los ataques de escucha de monitorización pasiva [4]. La autenticación es posible tras la captura y cracking de cierto número de paquetes y es posible accesar y monitorizar el tráfico presente en el entorno como cualquier cliente autenticado frente al access point. Análogamente también es posible realizar la inyección y modificación de mensajes sin necesidad de descifrar claves. Desde otro referente encontramos los ataques de intercepción inserción[4]. Los entornos que operan sobre el protocolo b principalmente, facilitan la captura y redirección de sesiones, ya que una estación que transmite no es capaz de detectar la presencia de estaciones adyacentes con la misma dirección MAC ó IP, esto permite que se lleve a cabo un ataque de secuestro de sesión mediante el uso de dos estaciones hostiles diferentes, desde el S.O Windows tenemos programas como fake MAC para clonar la dirección física asociada a cada tarjeta de red y de esta manera ejecutar ataques. Los ataques de denegación de servicio [8] sencillos de realizar, buscan afectar la disponibilidad en los entornos inalámbricos, pueden ser realizados desde varios enfoques como aquellos que utilizan un dispositivo de radiofrecuencia de alta potencia para generar interferencias, limitando al usuario legitimo en lo concerniente a la capacidad para utilizar el servicio. Por último abordamos la interferencia propia de canales, las mismas se producen por ejemplo cuando otro dispositivo como un router WIFI ó dispositivo que se encuentre operando en la frecuencia de 2.4 o 5.8 GHz (dependiendo de la tecnología) interfiere en el canal que tiene seleccionado el primer Access Point, esto provoca reenvíos continuos de datos con lo que la conexión se pone lenta y en ocasiones intermitente hasta que en el peor de los casos existe corte total del servicio. Cuando se está utilizando el protocolo IEEE n el problema puede ser aun peor, derivado del funcionamiento en que se basa el envío de múltiples ondas de radio en un punto de acceso para conseguir una mayor 159

161 velocidad, en el momento en que una de ellas es interferida el resto no funciona de manera correcta.[8] IV. AUDITORIA BAJO SUITE AIRCRACK Para el desarrollo de la auditoria se tiene en cuenta las diferentes debilidades antes mencionadas para intentar vulnerar la seguridad, se generan pruebas para cada uno de los sistemas, en primera instancia en una red con encriptación WEP y luego bajo encriptación WPA. Claramente la manera de realizar los ataques es muy similar; sin embargo, debido al algoritmo que utiliza la encriptación WPA parametriza la aplicación de procesos adicionales descritos en detalle más adelante. Para hacer una auditoria, primero tiene que existir una tarjeta de red asociada al computador que tenga la capacidad de inyectar paquetes y ponerse en modo de escucha en el espectro electromagnético; para esta práctica se utilizará una tarjeta Air Span con chip realtek rtl8187l. V. PROCEDIMIENTO En primera instancia se describirá la auditoria con suite de aircrack utilizando encriptación WEP. Se inicializa la tarjeta en modo monitor y se verifica la interface; podemos verificar la tecnología con la cual es compatible, en este caso podemos conectarnos a Access point con protocolos b/g. El modo de configuración está configurado como administrador. La tasa de bit es de 11 Mbps, por lo tanto caracteriza una tasa de transmisión soportado en ese instante de tiempo bajo el protocolo IEEE b. La potencia de transmisión es de 17 dbm. Estos parámetros mencionados y otros que respaldan el dispositivo conectividad. Por protección del presente documento se han etiquetado todos los access point escaneados para evitar atentar contra la seguridad de las redes capturadas en el análisis. Los parámetros mencionados se pueden observar en la Figura 2. A continuación se relacionan las siglas que respaldan la terminología empleada en la auditoría. AP: Access point, punto de acceso inalámbrico (router). PWR: Potencia de Access point. Beacons: son datos de anuncio emitidos por cada router #Data: es la cantidad de tráfico generada por el cliente y el router CH: canal por donde emite cada router datos a los clientes MB: número de megabytes por segundo que admite el Access point ENC: encriptación puede ser WEP WPA/WPA2 u open AUTH: tipo de autenticación requerida por la red ESSID: nombre de la red. Fig. 3 filtrado de bssid en canal 11 Una vez definida la red a la cual se le desea realizar la auditoría definida por la MAC del dispositivo y/o por el ESSID, se filtra la información de esa red a abordar, este procedimiento puede observarse en la Figura 3. La imagen también permite representar la encriptación que utiliza, para ello correlaciona a WEP y el nivel de potencia en un valor de 70 dbm, que para los propósitos prácticos de auditoria son suficientes para modelar el entorno de evaluación. Luego de esto se hace un barrido para observar que redes están al alcance y bajo qué características de potencia; este valor es muy importante, derivado que de él depende depende que la auditoria tenga éxito. Para realizar el procedimiento se recomienda ubicarse a una potencia no menor a 78 dbm que garantice En la Figura 4 podemos ver la autenticación falsa y las peticiones ARP (Address Resolution Protocol), 160

162 que para este momento están en 0. Cuando existe tráfico entre el cliente legítimo y el punto de acceso, la autenticación falsa se ha hecho de manera correcta, esto puede parametrizarse en las peticiones que representan un crecimiento de manera significativa. [6]. diferencia de ella, para poder vulnerar WPA es necesario realizar un ataque de denegación de servicio y de esa manera hacer que el cliente legitimo se reautentique y con ello lograr capturar el handshake imprescindible para descifrar la shared key (llave compartida). A continuación se describen los pasos necesarios desarrollados para realizar la auditoria: En la Figura 7 se muestra la MAC del Access point y MAC del cliente, para poder ver estos datos se está utilizando un ataque de monitorización pasiva (escucha). La Figura 5 muestra como a medida que existe tráfico entre el cliente legítimo y el Access point las peticiones ARP incrementan, (siempre que la autenticación falsa tenga éxito). Finalmente cuando los datos superen los paquetes (En encriptación WEP la contraseña va en los paquetes de datos enviados), ejecutamos el comando aircrack-ng para descifrar la clave. Para poder realizar la auditoria en una red con encriptación WPA es indispensable que exista un cliente legitimo conectado de lo contrario no se podrá realizar el ataque. En la Figura 6 se muestra la contraseña, para encontrar la llave es necesario capturar alrededor de paquetes, recordemos que la encriptación WEP utiliza vector de inicialización para establecer los valores de encriptación y lo estáticas que permanecen las llaves del cifrado hacen que este sistema sea muy vulnerable; este procedimiento desde su inicio no tardo más de 4 minutos lo que indica que existen problemas serios en la seguridad utilizando WEP, claramente los datos de los usuarios que utilicen esta encriptación pueden ser potencialmente vulnerados y el robo de datos es algo inminente una vez se puedan efectuar simulaciones de usuario desde la capa 2 del modelo OSI (capa de enlace), donde conjugan parámetros de identificación física de los dispositivos de red y la interface o comunicación con los parámetros lógicos [7] de la infraestructura. Para el proceso de auditoría de la suite aircrack bajo el uso del esquema de encriptación WPA, se utiliza un proceso similar al empleado en WEP; sin embargo, a En la Figura 8 se muestra el ataque de denegación de servicio. Para que este sea efectivo hay que tener en cuenta dos variables, la primera que el nivel de potencia entre el Access Point y la tarjeta de red del cliente legítimo y el usuario intruso sean similares y así poder desconectar el router del cliente genuino, la segunda es la cantidad de envíos de paquetes de des-autenticación para sacar de servicio al usuario legitimo. En la Figura 9 se observa el handshake necesario para concluir la auditoria. Luego de esto se pueden utilizar diferentes maneras de comparar los caracteres para encontrar el passphrase (contraseña-llave), este procedimiento queda a decisión del auditor, para la presente auditoria se utilizara ataque por diccionario y el uso de la suite de aircrack, de esta forma aplicando el uso de un diccionario de 33GB y ,698 palabras para encontrar el passphrase 161

163 En la Figura 10, se observa el passphrase pruebawpa aplicando método por diccionario que no es más que comparar cada palabra con cada uno de los ficheros secuenciales donde en cada línea hay diferentes caracteres escritos. Como normalmente las contraseñas WPA admiten como mínimo 8 caracteres y como máximo 64 suponiendo que la clave sea de 8 caracteres aproximadamente tendríamos posibles combinaciones y se estaría hablando de años ininterrumpidos de procesamiento, para encontrar el passphrase. Si se utilizaran las letras del alfabeto y los números del 1 al 9 serian 36 caracteres y palabras o combinaciones posibles suponiendo que el programa que estamos utilizando para comparar palabras y la capacidad de procesamiento del computador es de palabras por segundo tardarían años para encontrar dicha contraseña.[5] Toda la auditoria tardo un aproximado de seis (6) horas teniendo en cuenta herramientas avanzadas para generar el rainbow table y dos (2) horas aproximadamente en comparar caracteres y descifrar el passphrase además de un computador con núcleos cuda con capacidad de procesamiento de 0.99 teraflop el cual agilizo de manera significativa el desarrollo de la auditoria. Como observamos durante todo el procedimiento la encriptación WPA nos ofrece un método más seguro para proteger los datos en una red WIFI, al enviar la contraseña en el primer paquete, cuando el cliente se autentica nos obliga a tener un usuario legitimo para la desconexión del mismo; por medio de ataques de denegación de servicio y así capturar el handshake, en este punto ya son varias la fortalezas comparado con WEP, luego para descifrar la contraseña es necesario ataques por fuerza bruta, por diccionario, a partir de rainbow table o algunos otros métodos que lo vuelve aún más dispendioso para vulnerar la seguridad de una red que tenga este tipo de encriptación. Sin embargo con las herramientas necesarias es posible violar los parámetros de seguridad y esto refleja agujeros de seguridad y confiabilidad que puede ofrecer esta encriptación. De la misma manera y al igual que la encriptación WEP, WPA[9] no está exenta de monitorización pasiva (evidente en el momento de verificar el bssid y la MAC del router y la MAC del cliente legitimo) y ataques de denegación de servicio (desconexión del cliente y router para capturar handshake), el cual es el ataque más peligroso ya que además de permitir capturar el paquete con la contraseña, también puede dejar sin servicio de manera permanente y constante al cliente, si lo vemos desde un punto de vista corporativo este tipo de ataques pueden dejar fuera de servicio a una gran cantidad de abonados con desfavorables consecuencias de uso y de servicios. VI. CONCLUSIONES Es evidente que la utilización de encriptación WEP deja casi al descubierto el tráfico de datos entre el cliente y el router y su vulneración es muy sencilla y rápida, así mismo sin importar el número de caracteres presentes en el passphrase no es un punto relevante; ya que por la arquitectura del diseño del sistema es un factor que no genera mayor seguridad a la red. Es un problema muy grave en una red inalámbrica poder cambiar la dirección física de un dispositivo (MAC) y de esta manera hacer creer al router que es un cliente legítimo y entregar acceso a la red, así la creación de una tabla con las direcciones MAC para utilizar como medida de seguridad se descarta, sin embargo encontrar solución a este problema es muy complicado ya que no existe manera de controlarlo; bajo estos parámetros descritos, si alguien con malos propósitos quiere robar datos sensibles a una organización sin ser descubierto, el camino mas favorable es clonar la MAC por la de un cliente legitimo y esto agilizará el proceso de una forma más inmediata y efectiva, en definitiva la encriptación WEP es obsoleta y no debe ser utilizada. Si la intención de un atacante es dejar sin servicio de manera indefinida a los usuarios puede hacerse de manera sencilla aplicando un ataque de denegación de servicio. Si por limitaciones de Hardware o compatibilidad entre dispositivos la utilización de encriptación WEP es absolutamente necesaria una manera eficaz de brindar seguridad a la red es la utilización de una VPN, esta emplea tecnologías de cifrado para crear un canal virtual privado sobre una red de usó público. WPA nos ofrece un entorno más seguro para el envío de datos al ser absolutamente necesario la existencia de un cliente legitimo para capturar el handshake, imprescindible para encontrar el passphrase, además de la generación de diccionarios aleatorios el cual es el punto más dispendioso y en ocasiones si no se utiliza las herramientas adecuadas el resultado negativo en la intención de encontrar la contraseña; también el tener acceso a un computador con 162

164 gran capacidad de procesamiento, esta coalición de variables hacen que WPA sea más robusta que su antecesora WEP, dejando claro que no es absolutamente invulnerable. El uso de diccionarios presenta una forma sencilla y viable respecto a las otras formas de encontrar el passphrase, sin embargo es fundamental la calidad y no la cantidad de trafico presente en la red, así asegura solamente el handshake es necesario para poder realizar el ataque utilizando este método que compara cada palabra con cada uno de los ficheros secuenciales donde en cada línea hay diferentes caracteres escritos, y solo dependerá del cliente verificar la seguridad de la red, al contrario de WEP donde nunca dependerá de la configuración ya que por definición y pruebas en este paper son por definición inseguras totalmente. Así ninguna de la dos encriptaciones nos representa una solución absoluta de seguridad y tiene que ser complementada con otros factores; podemos mencionar mecanismos de intercambio de clave dinámica aportado por los diferentes productos comerciales, teniendo en cuenta en no generar sobrecostos por cambio masivo de hardware; otro recurso disponible fácil de implementar y muy efectivo es inhabilitar DHCP para la red inalámbrica, teniendo IPs fijas, se garantiza que aun si la contraseña es descubierta pero no se conoce el rango de IPs en la red no se podrá acceder a la misma, actualizar periódicamente el firmware de los dispositivos inalámbricos ayuda a cubrir posibles agujeros, inhabilitar la emisión broadcast del SSID, además de utilizar programas de gestión de redes que sean capaces de detectar clientes nuevos, son puntos a favor para la correcta protección de los datos en una red inalámbrica. En la actualidad los autores están buscando soluciones para mitigar los ataques a redes WIFI por terceros; se han realizado nuevas auditorías teniendo en cuenta el uso software libre y las investigaciones han arrojado los siguientes resultados: La forma más viable y efectiva es la utilización de contraseñas que incluyan letras y números alternado mayúsculas y minúsculas junto con signos poco usuales, sin embargo no es una solución radical ya que con software especializado como Elcomsoft password recovery[10], se puede descifrar la contraseña, además los ataques de denegación de servicio y los ataques de escucha solamente se han podido contrarrestar utilizando Access point muy robustos que permiten trabajar en bandas de guarda donde las tarjetas de red ordinarias no pueden acceder; de la misma forma se ha encontrado una solución reduciendo el ancho de canal de 40Mhz a 10Mhz, sin embargo el uso de este hardware más robusto incrementa desmesuradamente los precios tanto de los equipos emisores como receptores, y en el momento de realizar la implementación no es viable bajo parámetros de usabilidad comerciales. REFERENCIAS [1] N. Baghaei, S. Engineering, and N. Zealand, PERFORMANCE USING MULTIPLE CLIENTS, IEEE 2004, pp. 2 6, [2] S. Khakurel, P. K. Tiwary, N. Maskey, and G. Sachdeva, Security Vulnerabilities in IEEE and Adaptive Encryption Technique for Better Performance, 2010 IEEE Symposium on Industrial Electronics and Applications (ISIEA 2010), no. Isiea, pp , [3] P. Y. (Georgia S. U. Xiao Yang (Univrsity of Memphis), Bandela Chaitanya (Georgia State University), Vulnerabilities and Security Enhancements for the, IEEE Globecom 2005 proceedings., pp , [4] J. Gu, Research on WLAN Security Technology Based on IEEE , rd International Conference on Advanced Computer Control (ICACC 2011), no. lcacc, pp , [5] García, M. Montalvo, X. Zavala, Gestion de una red Lan Inalámbrica usando herramienta propietaria. [6] John Ross "The Book of Wireless: A Painless Guide to Wi-Fi and Broadband Wireless. [7] Gregory Kipper, "Wireless Crime and Forensic Investigation". [8] Ying Wang, Zhigang Jin, Ximan Zhao Practical defense against WEP and WPA-PSK attack for WLAN [9] Arash Habibi Lashkari, Massod Mansoori Wired Equivalent Privacy (WEP) versus WIFI Protected Access (WPA). [10] ElcomSoft Co.Ltd. BALLESTEROS C. JUAN DAVID: nació el 9 de septiembre de 1990 en la cuidad de Sogamoso Boyacá, graduado con honores del colegio Politécnico Álvaro González Santana de la ciudad de Sogamoso, participante del torneo VEX, miembro activo de la IEEE estudiante de octavo (9) semestre de Ingeniería Electrónica en la Universidad Santo Tomas. CHAPARRO B. W. FABIAN: nació en Duitama, Colombia en 1983, Ha recibido el grado de Ingeniero Electrónico (2005) y Especialista en Redes de Telecomunicaciones (2010) de la Universidad Santo Tomás, Magister en Telemática (2013) de la Universidad Autónoma de Bucaramanga, con experiencia en el sector público y privado donde se resalta la vinculación en el Instituto Nacional Penitenciario y Carcelario de Colombia 163

165 ( ), Empresa de Telecomunicaciones de Bogotá ETB ( ), dedicado a la academia universitaria desde el año Pertenece al grupo de Investigación GIDINT, adscrito al centro de Investigaciones en Ingeniería de la Universidad Santo Tomás, interesado en Redes de Telecomunicaciones, Networking, IPTV, Estimación de Ancho de Banda y NetFPGA. 164

166 Administración y Configuración de una Nube Privada Segura y Personalizada para Pymes Frey Alfonso Santamaría Buitrago, Juan Carlos Rodríguez Amézquita, Fabián Alejandro Molina Sosa, Universidad Pedagógica Y Tecnológica De Colombia Resumen-----En la computación en la nube como en cualquier otro entorno digital, es de vital importancia garantizar la seguridad de la información y conocer los riesgos a la que está expuesta. Para aquellas empresas que buscan nuevas tecnologías que les ofrezcan una mayor satisfacción en cuanto a disponibilidad de su información y al mismo tiempo buscan reducir costos en su infraestructura, deben conocer los pros y contras de implementar la computación de la nube, el tipo de nube y como preparar su infraestructura tecnológica de acuerdo a sus necesidades. Por esta razón se plantea la implementación de una solución libre y de código abierto, como alternativa a soluciones comerciales, que no requiera altos niveles de inversión en una empresa. Palabras Clave Computación en la nube, Seguridad en la nube, Nube Privada, owncloud Abstract In cloud computing as any other digital environment, is vital to ensure the safety of information and know the risks to which it is exposed. For companies seeking new technologies that offer greater satisfaction in the availability of information and at the same time looking to cut costs in its infrastructure, should know the pros and cons of implementing cloud computing, cloud type and how to make their IT infrastructure according to their needs. For this reason is proposed the implementation of a solution free and open source as an alternative to commercial solutions that don t require high levels of investment in a company. Keywords Cloud computing, Cloud security, Private Cloud, owncloud I. INTRODUCCIÓN En la actualidad el almacenamiento en la nube es una necesidad tanto para una persona o una entidad que requiera tener acceso a su información desde cualquier parte, para hacer uso de ella, tener una copia de seguridad y/o mantenerla actualizada. La mayoría de personas y empresas tienden a usar masivamente el almacenamiento en la nube debido a los beneficios ofrecidos por esta tecnología, por tal razón es de vital importancia brindar las medidas necesarias para garantizar la seguridad de la información y conocer en detalle los riesgos a los que se está expuesta. En la actualidad se cuenta con un amplio catálogo de herramientas que ofrecen servicios en la nube, utilizando esta soluciones existentes el usuario no puede estar totalmente seguro acerca de la confidencialidad de su información debido a que no se tiene control alguno sobre los dispositivos de almacenamiento interno, como los discos duro, dejando la responsabilidad a manos de terceros. Este tema puede no ser tan relevante para un usuario común, pero si para una empresa, la cual debe mantener su información confidencial de forma segura. Teniendo esto en cuenta, no sirve de nada la cantidad de restricciones o controles de seguridad que aplique el proveedor de la nube a la información, si este puede acceder de alguna forma a la totalidad de la información. Por medio de la investigación se lleva a cabo la implementación de una nube privada, segura y personalizada, con sus respectivas capas de administración para establecer límites administrativos en cuanto a almacenamiento y transmisión de información en la infraestructura de una organización. La implementación de la solución se basa en una aplicación libre, seleccionada bajo unos criterios específicos descritos más adelante, con el fin de cumplir con ciertos requisitos mínimos de seguridad. II. FUNDAMENTOS TEÓRICOS Desde la aparición de internet en la década de 1990, la computación se ha venido transformando 165

167 drásticamente, pasando por el concepto de computación en paralelo a la computación distribuida para computación grid, y recientemente a la computación en nube [1]. El término nube se origina en el mundo de las telecomunicaciones, en 1960, cuando los proveedores empezaron a utilizar los servicios de red privada virtual o VPN, para las comunicaciones de datos [2]. La computación en la nube es una tendencia de las tecnologías de la información que recibe múltiples conceptos, entre estos están: Según la IEEE Computer Society: Es un paradigma en el que la información se almacena de manera permanente en servidores en Internet y se envía a memorias temporales del cliente, lo que incluye computadores portátiles, equipos de escritorio, centros de ocio, teléfonos celulares, etc. [3] Según el Instituto Nacional de Estándares y Tecnología (NIST): Es un modelo que permite un acceso cómodo y de red bajo demanda a un conjunto compartido de recursos informáticos configurables (por ejemplo, redes, servidores, aplicaciones y servicios de almacenamiento) que puede ser aprovisionado y establecidos con un esfuerzo mínimo de gestión o de la interacción de servicios con rapidez. [4] El principal objetivo de la computación en la nube es hacer un mejor uso de los recursos distribuidos, combinarlos para lograr un mayor rendimiento y ser capaces de resolver problemas computacionales a gran escala. Existen soluciones en la nube que ofrecen virtualización, escalabilidad, interoperabilidad, calidad de servicio y modelos de entrega de la nube, es decir, privadas, públicas e híbridas. Tipos de nube Para el desarrollo de una solución de computación en la nube, la tarea más importante es decidir el tipo de nube a ser implementada. Actualmente existen tres tipos de nube, según la forma de implementación (Integración y Explotación): a) Nube Pública La infraestructura es operada por un proveedor que ofrece servicios al público en general. Utiliza un único conjunto de recursos que son administrados por un tercero [5]. b) Nube Privada La plataforma se encuentra dentro de las instalaciones de la empresa y solo esa organización tiene acceso a los recursos [5]. c) Nube Hibrida Forma de implementación cuya infraestructura cloud (en la nube) es una combinación de dos o más tipos de clouds (privado, comunitario o público). Permite enviar datos o aplicaciones entre ellas. Además, la computación en la nube se puede clasificar según los servicios ofrecidos, de la siguiente forma: a) Software como Servicio (SaaS) Es la capa más alta, consiste en la entrega de aplicaciones completas como servicio a través de internet, los proveedores de este servicio tienen instalada la aplicación en sus propios servidores [5]. b) Plataforma como Servicio (PaaS) Permite la virtualización de los servidores de una empresa para proveer todas las necesidades de las aplicaciones desarrolladas, esto significa que contratan proveedores que ofrecen máquinas virtuales en sus centros de cálculo [5]. c) Infraestructura como Servicio (IaaS) Ofrece grandes capacidades de almacenamiento masivo de información. Los clientes compran los recursos como un servicio externo. Los 166

168 proveedores cobran los servicios según la base establecida y por la cantidad de recursos consumidos [5]. Seguridad en la nube A pesar de las ventajas y las soluciones que ofrece la computación en la nube, no está libre de riesgos o no es completamente segura[6]. Para asegurar la confidencialidad, disponibilidad e integridad de los datos, es responsabilidad del proveedor ofrecer como mínimo[2]: un esquema de cifrado probado para asegurar el entorno de almacenamiento, estrictos controles de acceso para prevenir el acceso no autorizado, copias de respaldo de los datos y almacenamiento seguro de los mismos. Los servicios disponibles en la computación en la nube se ofrecen a múltiples usuarios, por esta razón, es necesario establecer una serie de políticas para el aislamiento, facturación y segmentación de la información. Además, la nube posee un diseño distribuido, y el riesgo de seguridad de los bienes depende de la clase de bien, quien usa los bienes, como se van a manejar esos bienes y los mecanismos de control empleados para su protección.[7] Según [7] la seguridad en la nube puede ser implementada en los siguientes niveles: seguridad física, seguridad de red, seguridad de sistemas y seguridad de aplicaciones. Adicionalmente seguridad puede tener lugar en un nivel más alto, en las personas, obligaciones y procesos. III. COMPUTACIÓN EN LA NUBE EN LAS EMPRESAS En esta sección se presenta información relevante a soluciones que le permitan a una organización resolver sus desafíos de negocio conforme adopta este cambio que supone la inclusión de tecnología informática, como lo es la computación en la nube. Debido a que los avances en tecnologías de información ayudan a mejorar la administración en la empresa, optimizando la eficiencia de las operaciones, generando ingresos adicionales y reduciendo costos, algunas necesidades relacionadas con la información son las siguientes: a) Inicialmente, una de las necesidades que requieren los directivos o personal de la empresa con respecto a la información es acceder de forma remota a la información, puesto que la mayoría de las empresas tienen sus centros de datos en la misma, lo cual hace difícil el acceso a la información desde cualquier lugar sin tener que estar físicamente en la empresa y con esto poder ahorrar tiempo y esfuerzo. b) las empresas cada vez necesitan tecnologías con más capacidad de procesamiento y almacenamiento, lo cual demanda una gran cantidad de esfuerzo. Se necesitan muchos servidores los cuales son costosos, además de que se requiere esfuerzo para configurarlos y dinero para su mantenimiento. c) Ahora bien los desarrolladores dentro de las empresas necesitan entornos de desarrollo para poder programar, lo cual genera un gasto para la empresa. d) Por último, debido a que la información es un elemento clave para el éxito de las empresas, lo ideal sería que los empleados pudieran acceder a ella desde cualquier lugar y hora con la intención de tener una mejor administración y así poder tomar las decisiones sin necesidad de esperar a que abran la oficina para poder adquirir la información. A. Preparar a la Empresa Para la Computación en la Nube Indiscutiblemente una empresa debe tomar medidas necesarias para poder adaptar la computación en la nube o cualquier tecnología de información a su modelo organizacional. No siempre es factible hacer cambios en la organización nada más porque si, sino que deben existir en la empresa las razones por las cuales se desea contar con un determinado servicio y de antemano preparar a todos los recursos que forman parte de la empresa debido que puede que se den algunos cambios en los procesos de negocio. Para ello se mencionan algunos factores que 167

169 se deben tomar en cuenta para poder implementar la computación en la nube de manera factible [8]: a) Portabilidad: Se debe conocer cuál es el grado de este atributo en la empresa. Si la actividad de la empresa, está basada en la economía del conocimiento (es decir, todo lo que se hace puede ser producido y distribuido de forma electrónica [Internet, telefonía, entre otros]) se podría ubicar en una más que buena posición para facilitar la migración hacia la nube. Las agencias de comunicación, de publicidad, medios de comunicación, empresas de servicios virtuales", entre otros, entran en la categoría de empresas que les que les permite adoptarla computación en la nube de una forma ágil y sencilla. En cambio existen empresas que se les dificulta de una u otra manera pasarse a la nube, como aquellas que necesiten distribuir un bien físico o requieran la necesidad de almacenar la información en servidores externos; sin embargo cualquier empresa puede pasarse al paradigma de computación en la nube. b) El proceso: Primeramente se debe representar en un diagrama de flujo los procesos de negocio existentes en la empresa y decidir cuáles de ellos se puede llevar a la nube y cuales es conveniente tenerlos en el ambiente físico. c) Resistencia al cambio: Algunas veces el personal de la empresa tiende a oponerse al cambio de los procesos que existen en la misma, principalmente aquellos que van relacionados con las tecnologías de información, por el esfuerzo que requiere aprender a utilizarlas o por otro lado, porque son herramientas nuevas de trabajo que amenazan con sustituir su trabajo personal. Es importante que exista comunicación en la empresa, de manera que se le presente al personal el concepto de computación en la nube, recalcando las ventajas y oportunidades que genera para toda la organización. En algunas empresas se cuenta con servicios de consultoría, los cuales ayudan a la formación de los trabajadores, así como también a instalar y configurar todo lo que necesiten para poder realizar su trabajo. d) Productividad: El hecho de que las herramientas, la información y todo lo necesario se encuentre en la nube, no significa que el trabajador puede hacer lo que quiera incluso dejando de lado su responsabilidad ya que éste tiene todo lo necesario para poder trabajar desde cualquier lugar. e) Paciencia: No se debe pensar que de la noche a la mañana se va a cerrar el centro de cómputo y se va a estar en la nube, ya que se trata de un proceso paulatino. f) No migrar todas las aplicaciones: Es conveniente que no se migre todo a la nube, hay un número de aplicaciones de software que se van a necesitar seguir controlando como se hace tradicionalmente. Inversión a largo plazo: La computación en la nube no es una moda pasajera que vaya a desaparecer, así que se considera dicha tecnología como una inversión a largo plazo para la empresa. B. Ventajas y Desventajas de la Computación en la Nube en Las Empresas. Como cualquier tecnología de información, la computación en la nube genera muchas ventajas y desventajas para las empresas. a) Ventajas: Los beneficios que presentan las empresas según son los siguientes [9]: Reducción/optimización de costos de TI: La computación en la nube ofrece una manera de reducir el costo de la infraestructura de TI mediante el pago de 168

170 lo que utiliza la empresa. Mediante este modelo, no es necesario invertir tanto en data centers, y así reducir los costos de mantenimiento, y el personal de operaciones necesarias para ejecutar y administrar el centro de datos. En general se optimiza el manejo financiero ajustando, liberando, difiriendo y reduciendo gastos de infraestructura y recurso humano. Convierte los costos fijos en costos variables: Un beneficio poderoso de la computación en la nube es la capacidad para convertir los costos fijos en costos variables, esto se debe a que solamente se paga por el uso actual basado en la demanda de la empresa. Optimización de las aplicaciones: Con la computación en la nube los empleados se olvidan de los procesos y gastos que representaría implementar, operar y mantener los sistemas de almacenamiento de datos, mensajería instantánea, correo electrónico, videoconferencias, intercambio de datos, entre otros. se enfoquen en el propósito del negocio dejando el manejo de la TI a las empresas expertas. Baja inversión: Se pueden desarrollar proyectos con baja inversión. Almacenamiento escalable: Se pueden ampliar las opciones de almacenamiento para cubrir con las necesidades de la empresa sin problema, en lugar de tener que salir a comprar hardware costoso. Actualizaciones automáticas: No hay necesidad de que el departamento de TI tenga que preocuparse por el pago de actualizaciones futuras en términos de software y hardware. Servicio ecológico: La computación en la nube utiliza menos energía que los centros de datos tradicionales lo cual es importante para muchos hoy en día. No se crean infraestructuras eléctricas ni sistemas de refrigeración para los equipos. Fácil implementación: No hay necesidad de implementar hardware y componentes costosos o que pueden tardar varias horas en instalarse. Colaboración entre empleados: Debido a que la información que se maneja está en la nube, y dependiendo de los privilegios que tengan los empleados, se podrán modificar y compartir archivos en tiempo real. Adiós configuraciones de servidores: La empresa se olvida del gasto ocasionado por configuraciones, actualizaciones y mantenimiento de los servidores, ya que de esto se encarga el proveedor, lo que permite que las empresas se concentren y Accesibilidad a nivel mundial: No para limitar el acceso a unos pocos empleados que se encuentra en una oficina. Es una solución idónea para empresa con redes comerciales, oficinas y delegaciones que no están situadas físicamente en la propia empresa. b) Desventajas Las empresas deben considerar algunas desventajas que puede provocar la implementación de este servicio de TI dentro de la organización [10], entre las cuales se mencionan las siguientes: Percepción de seguridad: Las empresas consideran que la principal desventaja es la 169

171 seguridad, por el hecho de sacar la información de la empresa. conseguido mediante la integración con la infraestructura de la empresa. En todo caso, también conviene subrayar que, aunque las organizaciones de mayor tamaño no puedan aún confiar en la seguridad proporcionada por la nube, para las de menor tamaño este enfoque puede representar, por el contrario, incluso una mejora de su actual seguridad Restricciones de Internet: El tráfico de Internet está sujeto a retardos introducidos por cada uno de los nodos por donde pasa; sin medios confiables de priorización. La banda ancha y las aplicaciones transaccionales que son sensibles al tiempo pueden experimentar cuellos de botella. Pérdida del control: Cómo pueden los proveedores de la nube administrar las prioridades para el desempeño y entrega de las aplicaciones? Cómo pueden estar seguros que el proveedor de la nube tiene un plan de continuidad adecuado para el negocio ante cualquier perturbación o interrupción física? Qué sucedería en caso de que el proveedor de la nube entre en quiebra o la aplicación del proveedor no funcione? Incertidumbre respecto de la ubicación concreta de los datos: En una pila compartida fuera de la empresa, ésta no tendrá ningún conocimiento o control sobre el lugar en el que corre cada recurso. Por tanto, si existe alguna preocupación acerca de la localización de los datos, por ejemplo, tal preocupación podría representar un motivo para no utilizar la computación en la nube en las aplicaciones y servicios relacionados con tal información. Se debe apegar a las actualizaciones de las aplicaciones: Los usuarios empresariales no tienen la alternativa de decidir quedarse con una versión anterior de su aplicación basada en la nube. Se debe aceptar la próxima versión, posiblemente anulando cualquier seguridad que se hubiera construido ya en torno a ella o IV. Dependencia de la conectividad al internet: Sin internet las aplicaciones en la nube no pueden funcionar, además de que la empresa va a requerir un gran ancho de banda, para que las aplicaciones puedan operar de manera correcta y no sea muy tardío el uso que se le den y sea más práctico para los usuarios finales. Dependencia del proveedor: La empresa que contrata el servicio en la nube depende del proveedor para conseguir y garantizar la disponibilidad de nuevos recursos físicos y lógicos en caso de crecimientos y/o nuevos proyectos. Además que en caso de fallos, debe acudir al proveedor para resolver el problema y en caso de que éstos no estén disponibles, esto implicaría un serio problema para la empresa. RAZONES PARA DETERMINAR EL TIPO DE NUBE IDÓNEA PARA UNA EMPRESA Una empresa debe determinar qué tipo de nube se va a implementar ya sea pública, privada o híbrida. A continuación se presenta algunas razones para determinar el tipo de nube [9]: a) Nube pública Este tipo de nube es conveniente para aquellas empresas que sólo quieren pagar por los servicios y requieren que exista transparencia en los mismos. Para aquellas que deciden contratar este tipo de servicio tienen que estar enteradas que los trabajos de otros clientes del proveedor elegido están mezclados en muchos servidores e indiscutiblemente toda esta nube es manejada por el proveedor. La siguiente es una lista en la que se presentan las razones por las cuales una empresa decide optar por una nube pública en el servicio de computación en la nube: 170

172 Bajo precio: Las nubes públicas ofrecen un bajo costo para la empresa, ya que sólo pagan por lo que se usa. Variedad de soluciones en la nube: Hay una gran variedad de recursos disponibles en este tipo de nube, como pueden ser sistemas operativos en la nube, PaaS, SaaS, entre otros. Pagar por lo que se necesita/usa: En las nubes públicas solamente se paga por lo que necesitan/usan los trabajadores, es decir, si ya no se necesitan de los servicios, no se debe pagar. Rápida acumulación de conocimientos, estrategias y experiencia: La nube pública ofrece una manera rápida de ganar experiencia, conocimientos y estrategias en la tendencia tecnológica de computación en la nube. Aprovechar la nube pública en la organización le permite aprovechar el conocimiento y experiencia de los servicios en la nube. por una nube privada en el servicio de computación en la nube: Seguridad y privacidad: Mitiga los problemas de privacidad y seguridad mediante el mantenimiento de los datos a través de firewalls. Opacidad estratégica: Se mantiene una opacidad estratégica así los competidores no pueden averiguar las intenciones de la empresa. Se convierte en un proveedor de servicios de nube interna: A partir de la nube privada la empresa se vuelve la misma proveedora de servicios en la nube. Este es un beneficio clave en la iniciativa de comenzar la nube internamente con un modelo de nube privada de implementación y más si la empresa es grande. Dependencia de aplicaciones: Si el negocio depende por completo de las aplicaciones, es necesario una nube privada. Empresa desarrolladora de software: Es conveniente esta nube cuando se tenga que desarrollar y probar código extensivamente. Demanda en pico: Si la empresa presenta demanda y/o momentos pico y de un momento a otro es necesario incrementar la capacidad de procesamiento es necesario una nube pública. Empresa regulada por normas o leyes: Algunas empresas deben cumplir estrictamente un conjunto de normas y/o regulaciones de la ley, lo que de entrada da lugar a implementar una nube privada, ya que estas leyes no les permiten que la información esté disponible para terceros. c) Nube Híbrida b) Nube Privada Esta nube va dirigida para aquellas empresas que necesitan una alta protección de datos lo cual les impide exponer su información a terceros. Aquí se necesitan más conocimientos ya que la misma empresa es propietaria del servidor, la red y el disco, entre otros. Estas nubes ofrecen el mayor grado de seguridad y control pero se requiere adquirir infraestructura lo cual reduce el ahorro. La siguiente es una lista en la que se presentan las razones por las cuales una empresa decide comenzar Esta es la nube ideal para cualquier empresa que requiera que alguna información esté en el exterior y otra en el interior. Aquí el empresario es propietario de unas partes y las otras se comparten con el proveedor. La dificultad radica en poder controlar de manera eficiente la seguridad en las diferentes plataformas involucradas y garantizar que cada parte del negocio se pueda comunicar con las otras. La siguiente es una lista en la que se presentan las razones por las cuales una empresa decide comenzar por una nube hibrida en el servicio de computación en la nube: 171

173 Comience con el final del juego: Independiente de si se contrata al principio nube pública o privada se terminará con una nube híbrida ya que al final se necesita de las dos nubes. Una computadora, PDA, Smartphone, cualquier dispositivo que tenga un navegador web y que tenga conexión a internet. Rango de solución en la nube: Las nubes híbridas ofrecen una gran magnitud de soluciones que se ocupan en los negocios y algunas que apenas se pueden imaginar. Explorar los modelos de negocios basados en la nube: Las nubes híbridas permiten crear y explorar nuevos modelos de negocios que nacen de la combinación de nubes públicas y privadas. Se puede explorar nuevos modelos como por ejemplos, nuevos canales de comercialización y distribución, nuevos modelos internos, entre otros. La nube híbrida ofrece una gran experiencia dentro de la organización. V. INFRAESTRUCTURA MÍNIMA PARA LA IMPLEMENTACIÓN DE UNA NUBE No se podría hablar de requerimientos mínimos específicos físicos (hardware), para llevar a cabo la implementación de una nube por medio de una determinada solución informática. Estos requerimientos vienen dados en base a las necesidades actuales y futuras de la empresa, organización o entidad; interesados en la implementación de una nube propia. Por lo tanto la infraestructura se debe adaptar de acuerdo al número de usuarios, el volumen de información, cantidad de tareas, servicios ofrecidos a los usuarios, entre otros aspectos, que se requieran ejecutar en el desarrollo de actividades cotidianas en la empresa; todo esto con el fin de optimizar el rendimiento del sistema. En datos generales, se recomienda la implementación de la solución en un entorno con las siguientes características: Un servidor con un sistema operativo Linux con capacidad de almacenamiento y de procesamiento de acuerdo a las necesidades. Una conexión a internet con gran ancho de banda. Así pues, una pequeña y mediana empresa realmente no requiere de bastos recursos físicos y tecnológicos al adquirir este servicio, debido a que la mayoría cuentan con al menos una computadora y conexión a internet; el costo que les genera es lo que pagan por el uso de los servicios que les brinda el proveedor. VI. ALGUNAS HERRAMIENTAS QUE PERMITEN LA CREACIÓN DE UNA NUBE PERSONAL Según investigaciones, tales como [11][12][13], han evaluado la seguridad de soluciones de código abierto que permiten a los usuarios desarrollar su propia nube privada, especialmente en la capa de servicio IaaS, son las más relevantes las conocidas como: OpenStack, Eucalyptus, OpenNebula, Cloudstack y Nimbus. Además de estas herramientas, se han encontrado soluciones de fácil implementación basadas en la funcionalidad de ofrecer administración y almacenamiento de información en la nube, como las siguientes: A. AjaXplorer Es un software que permite la administración remota de archivos bajo un servidor web o simplemente un sistema simple para uso compartido de archivos. La riqueza de su diseño y acciones hacen que sea fácilmente accesible a cualquier usuario final. Está desarrollado en PHP con interfaz gráfica en Ajax. Entre sus características están: Gestión de permisos para usuarios y grupos, para controlar lo que hacen y pueden hacer los usuarios. No requiere de base de datos, funciona por medio de archivos planos. 172

174 Amplio catálogo de complementos para ampliar las funciones del script. Uso compartido de archivos y carpetas con enlaces web para usuarios internos o externos. No permite su implementación con servidor propio, se restringe al almacenamiento de la información en el servidor propio del proveedor de la nube. B. Sparkle Share Es un software que provee almacenamiento en la nube y servicios de sincronización de archivos de forma segura. Es comparable con Dropbox, pero el almacenamiento que provee permite configurar un servidor propio, así que siempre se tiene un control de los datos almacenados. Sparkleshare está disponible para distribuciones Linux, Mac OS X y Microsoft Windows. Cuenta con las siguientes características: Sincronización de archivos Control de Versionado Self hosted Cifrado para el usuario Libre y de código abierto: Diseñado por personas a las que les importa la libertad y privacidad Recuperación de archivos borrados C. OwnCloud OwnCloud ofrece servicios web que pueden ser controlados por el usuario. Es una plataforma self-hosted de código abierto, es decir, que el espacio en disco se limita a la capacidad del servidor en el que se implemente. OwnCloud cuenta con las siguientes características: Acceso a la información a través de dispositivos móviles, computadores personales, o navegador web. Sincronización de información con los diferentes dispositivos configurados. Interfaz de usuario adaptada para enfocarse en el contenido de los datos almacenados y facilitar la navegación y configuración del escritorio. Restauración de archivos borrados accidentalmente a través de la interfaz web por medio de gestión de versiones. Búsqueda de archivos no solo por nombre, también por contenido del mismo. Documentación completa y exacta para responder a los diferentes interrogantes del usuario. Versionado de archivos con un algoritmo inteligente. Organización de contactos por medio de grupos, proporcionando un acceso intuitivo a los amigos, compañeros de trabajo, familiares, etc. Calendario, habilitado para compartir eventos importantes con otros usuarios. Migración y Copias de respaldo, para mover la información entre diferentes cuentas y versiones de owncloud. Tienda de Aplicaciones D. Seafile Seafile es una solución de código abierto multiplataforma orientada a las organizaciones. Posee un conjunto de características para sincronización y uso compartido, de forma segura y aplicación de seguridad avanzada sobre los datos. El servidor se puede instalar tanto en Linux como en Windows, así mismo dispone de 173

175 versiones cliente que se pueden implementar en Windows, Mac OS X y GNU/Linux. Además, provee una versión móvil para ipad/iphone y Android. Dentro de sus características generales[14] están: - Sincronización y uso compartido de archivos. - Creación de grupos, con control de acceso. - Control de versión de los datos. - Colaboración y edición en línea. - Oficina móvil. - WebDAV. - Pre-visualización para determinados formatos de archivos. - Búsqueda avanzada de archivos. E. arkos Es un sistema operativo liviano basado en Arch Linux, que integra servicios y aplicaciones para implementar una nube de tipo privada. El proyecto está orientado inicialmente a ejecutar arkos en los computadores Raspberry Pi, pero se planea ofrecer una versión instalable en servidores dedicados o servidores privados virtuales.[15] arkos permite al usuario tener un control total sobre la nube privada, la cual puede ser administrada por medio de Genesis, un panel de control web de código abierto que provee una interfaz gráfica de usuario para administrar cualquier aspecto referente al servidor. Además, en fuentes de información no tan confiables o no formales: como foros, blogs y páginas web; se ha hecho referencia a la herramienta owncloud, mostrando gran aceptación y casos de éxito por parte de personas que han optado por esta solución informática; y es que con su versión 5.0 con su edición empresarial, ha destacado por incluir: pruebas extensivas, documentación profesional, optimización del rendimiento y una colección de características apropiadas para una empresa. En la revisión documental no se ha encontrado, hasta el momento, información en artículos de investigación u otro tipo de fuentes primarias o secundarias que analicen o estudien su viabilidad, en diferentes aspectos, para la creación de una nube propia, pero analizando su arquitectura y funcionalidades que ofrece, se podría catalogar a owncloud como una solución que está a la altura de las demás mencionadas en investigaciones anteriores. VII. CASO DE ESTUDIO - OWNCLOUD Como caso de estudio se implementó una nube privada owncloud 5 Enterprise Edition la cual está disponible para fines académicos y la pueden descargar del siguiente enlace OwnCloud es software libre basado en la nube que permite el almacenamiento de datos en línea también permite la sincronización de archivos entre diferentes dispositivos, los servicios con los que cuenta owncloud son reproductor de música, visor de imágenes, editor de texto plano, todo esto a través de una interfaz web. La instalación de owncloud tiene requisitos mínimos para el servidor puesto que puede ser instalado dentro de un servidor que disponga de una versión reciente de PHP y soporte de SQLite, MySQL o PostgreSQL. Actualmentes arkos y Genesis se encuentran aún en desarrollo, permitiendo descargas solo para Raspberry Pi. De las herramientas anteriores, se puede destacar owncloud, debido a que el conjunto de funcionalidades que ofrece es más completa a comparación de las otras. Figura 4.Pantalla de inicio de la aplicación web. 174

176 En la Figura 1se puede visualizar la interfaz de inicio de sesión para acceder a owncloud vía web, en la cual se debe ingresar el nombre de usuario y contraseña, las cuales son asignadas previamente por el administrador del servidor. Además, la herramienta nos permite acceder no solo desde un navegador web, también por medio de la aplicación de escritorio y por último una aplicación móvil. Como características generales, la aplicación le permite al usuario: a) Compartir y sincronizar, desde cualquier lugar, los archivos y carpetas más recientes con otros usuarios. b) Pausar y reanudar cargas y descargas de forma automática. c) Configurar una red proxy para entornos empresariales seguros. d) Conexión al servidor por medio de HTTP o HTTPS. Figura 5. Interfaz aplicación desktop owncloud. En la figura 2 podemos visualizar la interfaz de la aplicación de escritorio, la cual despliega un asistente de conexión a la nube. Inicialmente se indica la dirección URL del servidor, se ingresan los datos de la cuenta del usuario y en seguida, el usuario puede crear o seleccionar una o más carpetas que requiera sincronizar en tiempo real con el servidor privado del usuario, como se puede apreciar en la figura 3. Figura 7. Interfaz aplicación móvil owncloud. Figura 8. Navegación de archivos y carpetas almacenadas en el servidor. Figura 6. Configuración de la cuenta del usuario. En la Figura 4se puede ver la interfaz de la aplicación móvil en la cual se configura la dirección del servidor, el nombre de usuario y contraseña de mismo, para llevar a cabo el inicio de sesión. Entre algunas funcionalidades que permite la aplicación móvil, están: a. Examinar archivos y carpetas en el servidor (Figura 5) 175

177 b. Descargar archivos al dispositivo local c. Eliminar archivos en el dispositivo y el servidor d. Cargar cualquier tipo de archivo al servidor e. Establecer un código de acceso a la aplicación A. Arquitectura owncloud El núcleo de la arquitectura, corresponde al servidor privado en base a owncloud (Figura 6). A diferencia de los servicios basados en la nube y otras aplicaciones de almacenamiento de terceros, el servidor de owncloud permite proteger y administrar todos los elementos asociados con owncloud en un solo lugar (almacenamiento de archivos, administración de usuarios y el procesamiento de datos); owncloud supervisa todas las actividades y las registra en un archivo de auditoría. El servidor proporciona un portal web seguro a través del cual todo el sistema es controlado por el administrador, el cual posee la capacidad para habilitar y deshabilitar características, establecer políticas, crear copias de seguridad y gestionar los usuarios. servidor, como por ejemplo: editor de texto en línea, antivirus, sincronización de calendario, entre otros. En pocas palabras, owncloud se puede ampliar fácilmente para hacer mucho más que una sincronización de archivos básica. OwnCloud proporciona a los usuarios un acceso sencillo basado en la web a través de un navegador estándar, para compartir y gestionar archivos, owncloud también ofrece acceso para navegar, descargar, editar y subir archivos, mientras que en un dispositivo móvil, y el cliente de escritorio, que sincroniza automáticamente los archivos más recientes con el servidor. B. Arquitectura del servidor La arquitectura del servidor owncloud (Figura 7) en su esencia es una aplicación web PHP con posibilidad de ejecutarse en IIS o Apache, sobre Windows o Linux. La aplicación gestiona aspectos de owncloud como la gestión de usuarios, el uso compartido de archivos y el almacenamiento. En cuanto al soporte de acceso a la base datos, se puede llevar a cabo con Oracle, MySQL, SQL Server, PostgreSQL y SQL Lite.[16] Figura 9.Arquitectura de owncloud.[16] El almacenamiento puede estar ubicado físicamente en el centro de datos o por terceros, lo que le permite proteger los archivos, las copias de seguridad y evitar la detección de intrusos. OwnCloud permite la integración con la infraestructura y sistema de seguridad existente, administrados bajo las políticas de la empresa. Sus funcionalidades son extensibles a través de un conjunto de APIs para personalizar las capacidades del sistema, estos complementos se pueden activar a través del panel de control del Figura 7.Arquitectura del servidor owncloud.[16] El inicio de sesión al servidor web está soportado por medio de registros de usuarios y de sistema proveídos en registros separados de OwnCloud, o con la posibilidad de configurarse en un archivo syslog[16]. Para facilitar el acceso y el uso de diferentes formas de almacenamiento, owncloud contiene una capa de abstracción para el almacenamiento. De este modo, lo hace compatible con cualquier tipo de protocolo de almacenamiento como CIFS, NFS, GFS2 y el sistema de archivos Clúster. Otras opciones de 176

178 almacenamiento pueden ser montadas en el sistema usando aplicaciones de sistemas de archivos, que permiten a los administradores y usuarios montar FTPs, WebDAV, CIFS e incluso, si es necesario, servicios externos de almacenamiento en la nube como Amazon S3, Swift, Google Drive y Dropbox.[16] C. Requisitos de instalación Como se trató anteriormente, owncloud está disponible en múltiples versiones, entre las que están la versión de escritorio para los usuarios de la nube (versión cliente) y la versión para el administrador (versión servidor). Además -en Apple App Store, Google Play y Amazon Appstore - está disponible una versión para dispositivos móviles como ipad, iphone y Android. La instalación de la versión para el administrador, se puede llevar a cabo en diferentes escenarios, inclusive por medio de imágenes de máquina virtual las cuales no requiere ninguna tipo de configuración. Entre las posibles plataformas compatibles con la solución, están: - Distribuciones Linux como Archlinux, OpenSUSE, Fedora, Centos 5 & 6, Gentoo, PCLinuxOS y Ubuntu/Debian. - Microsoft Windows 7 y Windows Server Univention Corporate Server, sistema operativo tipo servidor derivado de Debian GNU/Linux. - Actualmente debido a un problema con MacOS, la instalación de owncloud Server 5.0 no está soportada en esta plataforma. La mejor elección para instalar owncloud, en cuanto a servidores web, es Apache; cuya combinación es la que se ha probado con los mejores resultados, sin embargo, su ejecución también se puede realizar en otros servidores web como Nginx, Lightpd, Yaws, Hiawatha, Pagekite y Open Wrt. La instalación de versión de owncloud para clientes, se puede llevar a cabo en plataformas Windows (Windows7, Vista, XP Server), Mac OS X Server y distribuciones Linux (opensuse, Fedora, Debian o Ubuntu Server). VIII. ANÁLISIS En la experiencia de instalación se pudo evidenciar que OwnCloud es muy fácil de instalar, lo cual es de gran beneficio para que los usuarios puedan crear fácilmente y rápidamente sus propias nubes privadas. De hecho, un servidor de owncloud puede instalarse en tan sólo varios pasos. Por lo cual este servidor no utiliza DHCP, simplemente hace uso de una dirección IP estática la cual se debe configurar manualmente en el servidor. Una vez finalizada la instalación del servidor, el usuario puede comenzar a disfrutar de su propia nube privada. Gracias al paquete owncloud, de forma predeterminada del servidor en la nube ofrece a todos los usuarios los siguientes servicios: Almacenamiento de información, uso compartido de archivos con diferentes usuarios y no usuarios, reproducción de música, galerías de imágenes, calendario/agenda de contactos, visor de archivos planos y editor de textos. Además de permitir las funciones más usuales como son el backup y sincronización de archivos entre varios dispositivos y el uso de la nube con la tecnología WebDAV. En su sesión, el administrador es el encargado de proporcionar a cada usuario un nombre, su contraseña e ingresarlos dentro de un grupo de trabajo en la base de datos del servidor, que les brinda acceso a su sesión dentro de la nube y así la obtención y uso de servicios; también se le asigna a cada usuario una determinada cuota de almacenamiento, las capacidades de almacenamiento se asignan según la necesidad del usuario, esto es en función al tamaño de 32 GB del disco duro y de la capacidad máxima de usuarios registrados en la base de datos. Se realizaron pruebas de conexión y almacenamiento de Información en la Nube con los diferentes usuarios registrados, las conexiones fueron: vía Web desde su navegador de Internet, vía cliente de escritorio y vía aplicación móvil hacia el servidor en la nube. 177

179 IX. CONCLUSIONES Y TRABAJOS FUTUROS Es muy evidente que la computación en la nube está tomando mucha fuerza estos últimos años, muchas empresas y personas están usando estas tecnologías. Para darles un uso correcto debemos conocer las ventajas y desventajas de implementar dichas tecnologías. Actualmente existen diversas herramientas que permiten la creación de una nube de tipo privada, el caso de estudio fue basado en la plataforma owncloud, debido a que está basada en software libre y está en constante desarrollo, con este caso se pretende dar a conocer la implementación y configuración con el fin de dar a conocer esta nueva plataforma y el impacto que tiene hoy en con respecto a las demás plataformas. OwnCloud es una excelente alternativa a otras soluciones de computación en la nube, puesto que es relativamente fácil de instalar y proporciona todas las prestaciones de cualquier servicio en la nube de tipo comercial. OwnCloud, proporciona a los usuarios de la nube una interfaz que sencilla y fácil de usar. Con esta nube se busca ofrecer a los usuarios un entorno de nube más amigable, puesto que owncloud no sólo ayuda al usuario a construir una nube con facilidad y de forma automática, sino que también proporciona una interfaz amigable diferentes entornos informáticos, como lo son Linux, Windows, Android, entre otros. Como trabajo futuro se propone una investigación de cómo se podría escalar la infraestructura tecnológica de una empresa que desee implementar una nube, además se propone investigar cómo se puede hacer la migración de una nube a otra sin poner en riesgo los datos de la organización. X. REFERENCIAS [1] Y. Jadeja y K. Modi, «Cloud computing - concepts, architecture and challenges», 2012, pp [2] L. M. Kaufman, «Data Security in the World of Cloud Computing», IEEE Secur. Priv., vol. 7, n. o 4, pp , [3] J. S. Soto, «Computación en la nube», Investiga.TEC, vol. 10, n. o 10, p. pág. 4-5, feb [4] «National Institute of Standards and Technology». [En línea]. Disponible en: [Accedido: 17-oct-2013]. [5] R. X. Chipana Quispe, «Cloud Computing para Aplicaciones Logísticas», Rev. Inf. Tecnol. Soc., p. 30, /. [6] M. Carroll, A. Van der Merwe, y P. Kotze, «Secure cloud computing: Benefits, risks and controls», en Information Security South Africa (ISSA), 2011, 2011, pp [7] E. A. Alvarez Velasquez, «Seguridad En La Nube», Rev. Inf. Tecnol. Soc., p. 7, /. [8] Aliza, «6 Things to Consider Before Taking Your Company Virtual», Gigaom, 02-feb [En línea]. Disponible en: [Accedido: 06- nov-2013]. [9] E. A. Marks y B. Lozano, Executive s Guide to Cloud Computing. John Wiley and Sons, [10] Jorge Enrique Castro Diaz, «Empezando Firme Con Cloud Computing», Bogota, Colombia, feb [11] S. Ristov y M. Gusev, «Security evaluation of open source clouds», en 2013 IEEE EUROCON, 2013, pp [12] I. Voras, B. Mihaljevic, M. Orlic, M. Pletikosa, M. Zagar, T. Pavic, K. Zimmer, I. Cavrak, V. Paunovic, I. Bosnic, y S. Tomic, «Evaluating open-source cloud computing solutions», en 2011 Proceedings of the 34th International Convention MIPRO, 2011, pp [13] J. Peng, X. Zhang, Z. Lei, B. Zhang, W. Zhang, y Q. Li, «Comparison of Several Cloud Computing Platforms», en 2009 Second International Symposium on Information Science and Engineering (ISISE), 2009, pp [14] «List of features in Seafile Business Edition», Feature-pro-edition. [En línea]. Disponible en: https://seacloud.cc/group/3/wiki/feature-proedition/. [Accedido: 21-mar-2014]. [15] «Tu nube privada con ArkOS: adiós a Google, Dropbox... y a la NSA». [En línea]. Disponible en: [Accedido: 21-mar-2014]. [16] owncloud, Inc, «owncloud Architecture Overview». 178

180 Estrategia Algorítmica para el Manejo de Datos en Redes Sociales Tatiana Blanco Rojas, Diana Milena Archila Córdoba, Javier Antonio Ballesteros Ricaurte Tunja, Boyacá, Colombia Abstract- Social networking for some time have taken great force within organizations and institutions to the point of interest and contain primary data that enable communication and solving various needs. Pedagogical and Technological University of Colombia is an institution dedicated to teaching methods for undergraduate and graduate, is currently faced a problem situation based on a lack of communication with the graduates of the same, for this reason in the present study examines how solve the problem, taking as a case study of the School of Systems and Computer Engineering and in turn pose an algorithmic strategy used BIEP methodology where the future is achieved in that study have school graduates knowing contact with their academic and work activities today and allowing graduates know the social, cultural and academic process of the University and the School, all this is done based on the information in the social network Facebook to which much of the graduates belongs. Keywords- BIEP, Business Intelligence, Social Networking, Facebook, Design of algorithms. Resumen- Las redes sociales desde hace algún tiempo han tomado mucha fuerza dentro de las organizaciones e instituciones llegando al punto de contener datos interesantes y primordiales que permiten la comunicación y la solución de diversas necesidades. La Universidad Pedagógica y Tecnológica de Colombia es una institución dedicada a la enseñanza en modalidades de pregrado y postgrado, actualmente viene afrontado una situación problemática basada en la falta de comunicación con los egresados de la misma, por tal razón en la presente investigación se analiza cómo solucionar la problemática, tomando como caso de estudio la Escuela de Ingeniería de Sistemas y Computación y a su vez planteando una estrategia algorítmica usado la metodología BIEP donde se logre a futuro que la escuela en estudio tenga contacto con los egresados conociendo sus actividades académicas y laborales en la actualidad y permitiendo que los egresados conozcan los procesos sociales, culturales y académicas de la Universidad y de la Escuela, todo lo anterior se hace basándose en la información contenida en la red social Facebook a la cual pertenece gran parte de los egresados. Palabras claves- BIEP, Inteligencia de Negocios, Redes sociales, Facebook, Diseño de Algoritmos INTRODUCCION La nueva era de tecnología ha obligado a las personas y organizaciones a estar informadas, por tal razón es frecuente ver cómo la gente cuenta con cualquier clase de dispositivo que pueda tener acceso a internet con el fin de estar en contacto y actualizado sobre los hechos y sucesos que son noticia en el planeta. Este contexto ha llevado a que los medios de comunicación masiva sean populares y tengan mucha demanda por parte de los usuarios para obtener datos que beneficien de una u otra forma a grupos o individuos que buscan información en común. Así mismo, las redes sociales funcionan a modo de sistema de filtro y de alerta en la medida en que permiten un ajuste del flujo de información que se recibe en función de los intereses, gustos, necesidades y círculos temáticos de aquellos quienes forman parte del perfil de usuario [1]. Así mismo, éstas han facilitado la tarea de encontrar trabajo para los recién egresados debido a que en hoy en día es posible crear redes académico-profesionales integradas dentro del propio proceso de enseñanzaaprendizaje, lo que contribuye de manera importante en la adquisición y desarrollo de competencias profesionales además de la creación de redes de contacto profesional convirtiendo así a las redes sociales en un instrumento más para el vínculo entre Universidad y Sociedad [2]. Una fuente muy usada 179

181 por estos días para poder estar actualizado sobre noticias y estar en contacto con otras personas es la red social Facebook, a través de este medio de comunicación es posible establecer vínculos sociales con amigos, compartir contenidos, organizar eventos y buscar usuarios específicos o recursos compartidos [3]. La Universidad Pedagógica y Tecnológica de Colombia es una institución educativa que ofrece programas formales profesionales y disciplinares, en los niveles de pregrado, postgrado y de formación permanente, que hacen efectivos los derechos humanos individuales, colectivos y culturales pertinentes para el desarrollo económico y ecológico de la nación [4]. Esta organización también cuenta con una población robusta de egresados de cada una de las escuelas y programas de formación académica. Dentro de esta investigación se tomó como referente la Escuela de Ingeniería de Sistemas y Computación, donde se encontraron algunos problemas de comunicación con los egresados debido a la desactualización que presenta la base de datos que contiene la información de dicha población, por otro lado también se evidencio como la desinformación de esta población frente a los procesos culturales, sociales y académicos de la universidad incurría en los parámetros de certificación produciendo problemáticas internas y externas. Por lo evidenciado anteriormente, el propósito de esta investigación es plantear una estrategia aplicando las dos primeras fases de la metodología BIEP y haciendo uso de la red social Facebook con el fin de mejorar a futuro el proceso de comunicación entre la Escuela de Ingeniería de Sistemas y Computación y los egresados de la misma. Con el fin de llevar a cabo el correcto desarrollo de esta investigación se definió el siguiente contenido, en la sección 1 se estipuló el método de trabajo con el cual se llevó a cabo la investigación de una forma óptima y organizada, en la sección 2 se estudiaron algunos antecedentes de las redes sociales junto a sus beneficios, también se habla del contexto de inteligencia de negocios en sistemas masivos de información, en la sección 3 se conceptualizó sobre la metodología BIEP orientada al Business Intelligence y al Proceso Unificado (PU) y teniendo todas las posibles definiciones involucradas a esta investigación se procede a la sección 4 donde se estudiaron algunas técnicas y estrategias para el planteamiento de algoritmos. En la sección 5 se realizó como tal el desarrollo de la investigación y como primera medida fue necesario estudiar la relación de la metodología BIEP con la red social en estudio (Facebook) para poder aplicar las fases, flujos y modelos que hacen parte del desarrollo de la misma. Es necesario tener en cuenta que para la presente investigación solo se aplicaron las dos primeras fases de BIEP (Inicio y Elaboración) encaminadas a limitar y establecer la posible arquitectura asociada planteamiento inicial del algoritmo. Finalmente se pueden observar los resultados y las conclusiones. 1. METODO DE TRABAJO El enfoque de esta investigación es de tipo cualitativo debido a que se basó ante todo en el proceso de recolección y análisis de la literatura existente de la metodología BIEP orientándola al planteamiento de estrategias de desarrollo de algoritmos. En este método de trabajo cualitativo se usó la recolección de datos sin medición numérica para descubrir o afinar preguntas de investigación en el proceso de interpretación de la información recolectada [5]. El espiral de la investigación cualitativa [6] se define de acuerdo con seis (6) etapas importantes las cuales son: 1.1 Identificar el problema de investigación: El problema principal se centra en el no uso de nuevas tecnologías aplicadas a metodologías de inteligencia de negocios para crear estrategias que permita administrar la información de los egresados de la Escuela y de esta forma establecer una comunicación continua con la población en estudio. 1.2 Revisar la literatura: Las referencias más destacadas en la investigación se describen a continuación: Como se describe en [7] la metodología BIEP es conocida como Proceso de Ingeniería de Inteligencia de Negocios y está compuesta por dos elementos como lo son las fases y los flujos de trabajo que son transversales a los componentes que hacen parte de los sistemas de inteligencia de negocios. Esta metodología se basa en el Proceso Unificado y en la 180

182 metodología DWEP (Data Warehouse [8] Engineering Process Proceso de Ingeniería para la Bodega de Datos-DWEP). Por otro lado en [9] se observa que uno de los aspectos importantes que se tiene en cuenta a la hora de evaluar un programa académico para su acreditación es que este haga un seguimiento a la ubicación y a las actividades que desarrollan los egresados en asuntos concernientes al logro de los fines de la institución y del programa y que existan registros actualizados sobre ocupación y ubicación profesional de los mismos. Así mismo en [10] se decreta que en las instituciones de educación superior se debe desarrollar una estrategia de seguimiento de corto y largo plazo a egresados, que permita conocer y valorar su desempeño y el impacto social del programa, así como estimular el intercambio de experiencias académicas e investigativas. En [11] se aborda la minería de datos en las redes sociales como una idea que ayuda a incrementar la satisfacción de la experiencia de los usuarios, que reciben ofertas de mayor interés al haber sido diseñadas previamente en función de los datos obtenidos, los usuarios pueden contactarse con personas similares a ellos, les llegan promociones acordes a sus gustos, necesidades y posibilidades. Finalmente, desde la perspectiva de [12] el concepto de red social se considera clave en una nueva perspectiva de trabajo que incorpore el conjunto de relaciones sociales de las personas, así como en el aporte que cada individuo hace a las redes sociales y a su vez estudia las relaciones grupales y comunitarias mediante estrategias de trabajo compartido. 1.3 Especificar el propósito de la investigación: Plantear una estrategia algorítmica aplicando las dos primeras fases de BIEP y haciendo uso de la red social Facebook, con el fin de mejorar a futuro el proceso de comunicación entre la Escuela de Ingeniería de Sistemas y Computación y sus egresados. 1.4 Recoger datos: La obtención de datos se realizó mediante un proceso riguroso donde las principales fuentes han sido: - Escuela de Ingeniería de Sistemas y Computación, seccional Tunja - Egresados Escuela de Ingeniería de Sistemas y Computación, seccional Tunja - Análisis de los lineamientos para la acreditación de programas de pregrado expedidos en su última versión en enero de Análisis del decreto 1295 del 20 de abril de 2010, por el cual se reglamenta el registro calificado de que trata la Ley 1188 de 2008 y la oferta y desarrollo de programas académicos de educación superior - Fuentes físicas y virtuales que aportaron directamente a la temática. Por otro lado a partir de junio de 2012 se aplicó una encuesta a una población de treinta y cinco (35) egresados aproximadamente donde se realizaron preguntas encaminadas a recolectar información como datos personales, perfil académico y perfil laboral. Con la información recolectada se procedió a construir una base de datos provisional con el fin de manejar datos reales de la población en estudio y analizar cada uno de los patrones de respuesta. A su vez con las fuentes de información física y virtual se aplicó la metodología BIEP con la meta de generar a futuro una estrategia algorítmica que permita la obtención de datos y la creación de un vínculo continuo de comunicación con los egresados. 1.5 Analizar e interpretar datos: Teniendo en cuenta el proceso anterior de recolección de datos se aplicaron las fases de inicio y elaboración de BIEP con el fin de evaluar y analizar la metodología en el proceso de seguimiento de información junto a las redes sociales. La información recolectada tanto en la encuesta como en las distintas fuentes físicas y digitales fue la base para determinar patrones de gustos y aspiraciones de los egresados de la Escuela, esta misma información también será empleada a futuro para desarrollar una 181

183 plan completo que contenga los elementos deben intervenir en el proceso de actualización y recolección de datos de la población en estudio. 1.6 Evaluar datos y escribir reportes: Con el análisis de información se procedió a evaluar si la metodología BIEP tiene una orientación adecuada para desarrollar un correcto proceso de manejo de información dentro de la técnica de inteligencia de negocios y si a través de su implementación es posible plantear la estrategia algorítmica adecuada que logre de cierta forma un primer acercamiento entre la Escuela de Ingeniería de Sistemas y Computación y sus egresados. 2 REDES SOCIALES, DESARROLLO, EVOLUCION Y CENTRO DEL NEGOCIO En la actualidad las redes sociales son una herramienta útil para el intercambio de información [13] y junto a la inteligencia de negocios resultan ser eficientes en la toma de decisiones, por esta razón a continuación se analizan términos generales orientados hacia una contextualización relacionada con los antecedentes de las redes sociales, sus beneficios y aplicaciones, inteligencia de negocios en las redes sociales, BIEP una metodología para el desarrollo de sistemas orientados a inteligencia de negocios y finalmente las técnicas y estrategias de desarrollo de algoritmos, todo lo anterior con el fin de formar un marco conceptual dinámico dirigido a la explicación de la temática a tratar Antecedentes de las redes sociales A través de la historia las redes sociales han estado relacionadas con la sociología tradicional, de donde surge el concepto de estructura social directamente influenciado por patrones de vinculación que de una u otra forma afectan o influyen en la conducta de las personas. La red social entonces, se reconoce como la integración de instituciones públicas o privadas, comunidades o líderes que comparten e intercambian experiencias y recursos con el fin de cumplir un objetivo en común en respuesta a una determinada situación [14], además de esto, las redes sociales se caracterizan por posibilitar el compartir y comentar las experiencias y de esta manera establecer lazos y relaciones con personas que comparten los mismos intereses, preocupaciones y necesidades, reencuentro con antiguas amistades, así como la creación de redes profesionales y el crecimiento del entorno geográfico donde las personas se pueden relacionar [15]. Las redes sociales son un medio de comunicación alternativo e innovador con una ventaja inmensa sobre cualquier otro medio, la interacción que se produce se realiza entre una o más personas donde se pueden debatir temáticas y lo más importante se puede opinar y expresar sentimientos encontrados según diversas situaciones. GeoCities, es una de las primeras redes sociales donde los usuarios podían crear su propias páginas web y personalizar sus experiencias online publicando contenido interactivo y conociendo nuevas personas [16]. Para el año 1997 se inaugura la red Sixdegrees.com donde es posible crear perfiles y listas de amigos, esta era fue marcada por la explosión mundial del internet y la nueva forma de comunicación virtual: las redes sociales. Para 1998 nace el portal Friendster [17] uno de los primeros sitios web que permite realizar conexiones online de amigos reales, este portal alcanza una gran popularidad con tres (3) millones de usuarios. Para el año 2000 se plantea el proyecto de Myspace pero aun para esta época no tiene su lanzamiento oficial. Para el año 2003 esta red social había realizado su ingreso oficial a la web, en el año 2006 ya era la red social más popular del mundo, uno de los aspectos más atrayentes de Myspace [18] era que el usuario podía personalizar totalmente su perfil y ver las actividades realizadas por las personas que estaban en la lista de amigos de los usuarios. Para el mismo año (2003) entra en funcionamiento una competencia directa de Myspace llamada HI5, donde los usuarios podían configurar su perfil para ser visto por miembros de la misma red, lamentablemente HI5 perdió su popularidad rápidamente y no llego a extenderse al mundo entero [16]. A comienzos del año 2004 nace Facebook, esta red fue creada por Marck Zuckerberg [19] en la Universidad de Harvard con el propósito de fundar una comunidad web donde las personas pudieran dar a conocer sus gustos y compartir sus sentimientos. Facebook es una red social horizontal que va dirigida a todo tipo de usuario y basa su estructura en la participación libre y genérica sin un tema definido 182

184 [20]. Para el año 2009 Facebook ya era la red social más popular del mundo desterrando a Myspace y demás redes sociales, se convirtió en uno de los sitios web más interesante y atrayentes, puesto que los usuarios pueden publicar videos, fotos, personalizar su perfil, chatear, enviar mensajes inbox, crear y pertenecer a grupos, realizar comentarios en un lugar llamado muro, compartir y comentar estados, acceder a miles de aplicaciones, y en sí, usar diversas herramientas que permiten a los usuarios comunicar, interactuar y divertirse [21]. Por tal razón el enfoque principal de esta investigación va dirigido a Facebook siendo actualmente la red más popular y con el mayor número de usuarios (1060 millones de usuarios según la revista Merca 2.0) a nivel mundial [22] Beneficios y aplicaciones de las redes sociales Las redes sociales han sido un medio de comunicación controversial, algunas personas están a favor y otras en contra [23], pues se generan algunas dudas frente a la intimidad y a la seguridad. Sin embargo en la actualidad se le ha dado una nueva perspectiva a las redes sociales, donde no solo se usan para publicaciones masivas y distracción, sino que se ha encontrado un fondo más importante, la información [24], además de destacarse el ofrecimiento de posibilidades para la construcción y desarrollo de aplicaciones, integración de contenidos dentro de ésta y reutilización de los mismos fuera de ella [25]. Los datos que en esta época circulan en las redes sociales son usados por personas, grupos u organizaciones para realizar estudios donde es posible determinar por medio de estados, sentimientos y emociones expresados por los usuarios patrones relacionados directamente con gustos y necesidades, este tipo de información es valiosa para las organizaciones y empresas pues pueden ofrecer productos o servicios requeridos por los usuarios sin que estos los soliciten de antemano [26]. Dentro de otras ventajas de las redes sociales también se encuentra: la nueva era de la publicidad y el marketing, el periodismo virtual y actualizado, la empatía con personas o grupos que persiguen ideales en común, el aprendizaje de nuevos idiomas de forma gratuita, la inclusión de todo tipo de contenidos, las manifestaciones a nivel mundial, la participación en todo tipo de eventos, la interactividad y la realimentación [27], en fin, son muchos los beneficios que trae esta nueva era de redes sociales y gracias al actual enfoque y orientación que han recibido es posible contrarrestar las desventajas y crear un ambiente social, cultural y académico que genere nuevo conocimiento. Por otro lado dentro del análisis de las redes sociales el aporte de las mismas se divide en tres grandes campos del saber [19]. El primer campo metodológico, teórico y conceptual, orientado a la maduración teórica de las redes sociales. También habla de cinco (5) subdivisiones relacionadas a este campo: de lo atributivo a lo relacional, orientaciones macrosociales y microsociales, la relación macro y micro y finalmente una teoría de acción encaminada al análisis de la vinculación establecida entre los grandes y pequeños grupos. El segundo campo es la esfera de métodos, algoritmos y técnicas basados en identificar subgrupos de usuarios a determinadas distancias dentro de la red. El tercer campo enfocado a la reunión de datos y el muestreo, donde se establecen algunos problemas a la hora de recolectar información en redes sociales y se usan métodos para descubrir la estructura general del sistema social en estudio. Los beneficios y aplicaciones de las redes sociales están siendo encaminados a nuevos horizontes [28] que permiten a los individuos y organizaciones examinar los datos transmitidos a través de las redes para convertirlos en información útil a la hora de tomar una decisión Inteligencia de negocios y las redes sociales En la actualidad las personas están relacionadas con las TIC s, pues estas hacen parte de la era de la globalización que vive el mundo. Por otro lado, la información que se maneja hoy en día es considerada como un tesoro para muchas organizaciones [29], de aquí nace la inteligencia de negocios (conocida como BI, por las siglas en ingles de Business Intelligence) que se basa en estrategias y herramientas enfocadas a la administración y creación de conocimiento mediante el análisis de datos [30]. BI se alimenta de datos que se encuentran en diferentes fuentes, entre estas las redes sociales las cuales en algunas ocasiones no son tenidas en cuenta para obtener información que puede mejorar la estrategia de venta y publicidad usada por un determinado negocio. 183

185 Transición Construcción Elaboración Inicio Existen algunas organizaciones que desconocen los excelentes resultados que proporciona la mezcla de la inteligencia de negocios con las redes sociales y de aquí se deriva el problema de que no se usen metodologías y arquitecturas adecuadas para transformar datos en información útil [31]. Por lo anterior, es importante que las organizaciones analicen, identifiquen y detecten qué falencias poseen a la hora de manejar su información y a través del uso de las redes sociales y BI pueda dar a conocer las formas o métodos eficientes para que la información sea usada para apoyar procesos de toma de decisiones. Por otro lado también existen metodologías de BI como BIEP [7] (Business Inteligence Engineering Process) la cual es aplicable al desarrollo de sistemas y a la toma de decisiones en diversos contextos. Finalmente, es posible ver como las redes sociales son un foco inmenso de todo tipo de información como gustos, sentimientos, emociones, eventos, lugares y demás, con estos datos las organizaciones pueden estudiar las necesidades de los usuarios a través de metodologías y herramientas especializadas en inteligencia de negocios, encontrando allí soluciones para publicidad, mercadeo, comunicación, presupuesto, manejo de bases de datos y marketing [32]. 3. BIEP: Metodología para el desarrollo de sistemas orientados a inteligencia de negocios La presente investigación se enfoca en la aplicación de una metodología de Ingeniería de Software para el desarrollo de un sistema de Inteligencia de Negocios la cual es conocida como Proceso de Ingeniería de Inteligencia de Negocios (en inglés: Business Intelligence Engineering Process BIEP) compuesta por dos elementos: las fases y los flujos de trabajo, transversales a los elementos que componen un sistema de inteligencia de negocios. BIEP se basa en el Proceso Unificado, en la metodología DWEP, en el diagrama de cubo dimensional y en los diagramas propuestos de Zubcoff [33] sobre el proceso de extracción de conocimiento en bases de datos (en inglés: Knowledge Discovery in Databases KDD [34]) en modelos multidimensionales y bodegas de datos. Esta nueva metodología presenta un enfoque estructurado para desarrollar los elementos de integración, análisis y despliegue de los datos, y su propósito principal se enfoca en facilitar el diseño y producción de sistemas de inteligencia de negocios, dentro de los cuales se incluye el modelo del sistema, notaciones, reglas de sugerencias de diseño y guías para los procesos. En la parte de integración de datos [35], BIEP se basa en la metodología de proceso de ingeniería para el desarrollo de bodegas de datos o Data Warehouse Engineering Process [36] (DWEP) la cual a su vez toma como base el proceso unificado [7]. Para el análisis de datos se utilizan las técnicas OLAP 21 [37] o de minería de datos (Data Mining DM [38]). Para el desarrollo de sistemas de inteligencia de negocios la metodología a considerar puede ser una instancia del proceso unificado, como lo es la metodología DWEP para la bodega de datos Fases, flujos y modelos de trabajo de BIEP Tabla 1: Fases de la metodología BIEP. Fase Descripción Define el límite y alcance del proyecto. Su objetivo principal es proveer una visión general del proyecto de inteligencia de negocios que se pretende desarrollar. Se plantea el plan de proyecto, características que le identifican y la línea base de la arquitectura. Con la agrupación de estos elementos se obtiene la arquitectura base del proyecto. En esta fase se lleva a cabo el desarrollo del proyecto con el fin de entregar un prototipo inicial al usuario o cliente. Busca la implantación del proyecto en el entorno en el que operara haciendo participes a los usuarios incriminados y su meta es entregarles la versión final. Fuente: Autores. 21 Procesamiento analítico en línea (On-Line Analytical Processing- OLAP) 184

186 Para la metodología BIEP, según [7], las fases parten del inicio del proceso de desarrollo de un sistema de inteligencia de negocios y finaliza con la entrega al usuario final del sistema. Así mismo los flujos de trabajo se emplean para describir las actividades a desarrollar para llevar a feliz término el desarrollo. En ese orden de ideas se concluye que BIEP sigue las mismas fases desarrolladas en el proceso unificado y en DWEP como las mostradas en la Tabla 1. Por otro lado, BIEP contiene nueve flujos de trabajo, cinco de ellos son derivados del PU [39]: requerimiento, análisis, diseño, implementación y pruebas. Dos provienen del DWEP: el mantenimiento y las revisiones post desarrollo, adicional a estos siete se proponen dos nuevos flujos de trabajo que se basan en la metodología CRISP-DM (Cross Industry Standard Process for Data Mining, Proceso estándar entre la industria de minería de datos-crisp-dm) [40] los cuales son la preparación, despliegue y modelado y evaluación. 4. Técnicas y estrategias para el planteamiento de algoritmos Para hablar de las estrategias de planteamiento de algoritmos es importante tener clara la definición del término a estudiar, un algoritmo es un conjunto de instrucciones que realizadas en un orden determinado conducen a obtener la solución de un problema [41]. En general los algoritmos comúnmente tienen cinco (5) características esenciales, son precisos sin dar lugar a ambigüedades, definidos obteniendo siempre el mismo resultado, finitos teniendo termino en algún momento, tienen cero o más elementos de entrada, deben producir salidas con resultados que efectúen una solución. También existen formas de representación de los algoritmos antes de ser codificados a un lenguaje de programación específico, las técnicas más representativas y conocidas a nivel general son: diagramación libre (diagrama de flujo), Pseudocódigo, lenguaje natural o fórmulas matemáticas [42]. Las estrategias para plantear los algoritmos y ponerlos a funcionar en un ambiente real pueden ser muchas, sin embargo, en este caso se recomiendan ocho (8) pasos importantes para que se pueda llevar a cabo la ejecución del algoritmo. La estrategia está compuesta de esta manera: análisis, definición y delimitación del problema, diseño y desarrollo del algoritmo, pruebas de escritorio, codificación, compilación, ejecución, depuración y evaluación de resultados [42]. La aplicación de técnicas para el planteamiento de algoritmos basados en búsquedas permiten encontrar y recuperar diversa información en redes sociales y en entornos web y móviles [43]. 5. Estrategia de desarrollo de un algoritmo mediante BIEP para aplicar en las redes sociales Teniendo en cuenta la contextualización realizada anteriormente se observa a continuación cuales son los principales pasos para aplicar la metodología BIEP, a su vez se realizó un análisis de BIEP y su relación con las redes sociales. Para finalizar se aplicaron las dos primeras etapas de dicha metodología con el fin de encontrar el planteamiento ideal de la estrategia algorítmica orientada a la búsqueda de información en las redes sociales Análisis y relación de BIEP con las redes sociales (Caso Facebook) BIEP nace para dar solución a los problemas presentados a la hora de aplicar inteligencia de negocios en un determinado proyecto, a su vez es ideal para la adaptación de técnicas de minería de datos y bodegas de datos donde la información es extensa y requiere un tratamiento minucioso. En este punto es donde las redes sociales ingresan al contexto de la presente investigación, debido a que estas poseen dentro de sí información actualizada diariamente que puede convertirse en soluciones para la toma de decisiones dentro de las organizaciones. En los últimos años la inteligencia de negocios ha tomado gran fuerza dentro de las redes sociales, las organizaciones e instituciones han decidido establecer comunicación con los usuarios [44] a través de este medio para determinar sus gustos, inconformidades y actualizar sus bases de datos, claro está, que todo este proceso se realiza sin incumplir las normas y leyes relacionadas con la protección de datos personales. BIEP es una metodología para el planteamiento de sistemas y algoritmos que permite aplicar el proceso de minería de datos e inteligencia de negocios a sistemas que contienen mucha información dentro de sí (Figura 1), por tal razón se convierte en la metodología ideal 185

187 para el proceso de explotación de datos a través de las redes sociales y de ahí radica su fuerte relación con las mismas. Figura 1: Elementos de BIEP para sistemas basados en inteligencia de negocios información fundamental que debe tenerse en cuenta todo el tiempo. a) Limites, alcances y visión global de la estrategia de desarrollo para búsqueda y recolección de datos en Facebook Para aplicar adecuadamente la fase inicial es necesario definir correctamente los límites, alcances y visión global de la investigación, para este caso se define de manera general hasta donde se llegará con el planteamiento de la estrategia algorítmica por medio de la aplicación de BIEP. Límites: el eje principal de la presente propuesta radica en poder extraer información de la red social Facebook, por tal razón por el momento el principal enfoque está en encontrar la manera adecuada para buscar y obtener datos que sean útiles a la institución u organización que lo requiera. Fuente: Adaptado de metodología para el desarrollo de un sistema de inteligencia de negocios basada en el proceso unificado. Osorio, 2011 [7] 5.2. Fases, flujos y modelos de BIEP (Caso Facebook) Esta metodología se conforma de diversas fases y flujos de trabajo, modelos y diagramas esenciales que hacen parte de los sistemas orientados a la inteligencia de negocios. Para el proceso que se establece a continuación se aplican las dos primeras fases de BIEP con el fin de establecer la estrategia inicial del algoritmo indicado para la búsqueda y recolección de datos en la red social Facebook Aplicación de la fase de inicio BIEP La fase de inicio parte regularmente de establecer los límites y alcances del proyecto, en el caso de esta investigación se declara el alcance del planteamiento del algoritmo y el límite del mismo. Por otro lado se parte de los requisitos necesarios para que el planteamiento sea optimo, la finalidad principal de esta primera etapa esta en presentar una visión general. En este punto es necesario tener en cuenta que los requisitos hacen parte tanto la fase de inicio como de la fase de elaboración, debido a que son Alcances: de acuerdo al planteamiento inicial del presente proyecto los resultados obtenidos se basan en tres aspectos importantes: el primero de estos es comprobar si la metodología BIEP es la adecuada en el caso de extracción de información de la red social Facebook, el segundo aspecto es el planteamiento de la estrategia algorítmica que se obtendrá a partir de la aplicación de las dos primeras etapas de BIEP y el tercer y último aspecto se centró en resaltar los beneficios de aplicar la inteligencia de negocios en organizaciones o instituciones con problemas de actualización de datos y que requieren desarrollar estrategias para estar en contacto con determinadas comunidades. Visión global: a nivel general se puede decir que BIEP es una metodología de inteligencia de negocios que es posible aplicar a sistemas que requieren manejo de información, por tal motivo resulta ser atractiva para el caso del negocio que en este contexto se centra en la manipulación de los datos a través de las redes sociales. a) Contextualización de la estrategia de desarrollo del algoritmo de búsqueda y recolección de datos en Facebook Dentro del contexto del planteamiento de un algoritmo que permita extraer información de las redes sociales se debe tener como primera medida 186

188 una estrategia fundamental que sea la guía para generar el algoritmo a futuro el cual se oriente a la conexión entre las redes sociales y las bases de datos de las instituciones u organizaciones. Es necesario saber que la inteligencia de negocios realizada en bases de datos tradicionales se centra en los almacenes de datos, en más bases de datos y en estadísticas. Por el contrario, las redes sociales como Facebook [45] no usan bases de datos tradicionales, sino que implementan dentro de sí SQL, NoSQL y bases de datos binarias de tal forma que puedan escalar horizontalmente y permitan realizar consultas rápidas y efectivas. En pocas palabras Facebook usa un proceso conocido como paralelismo masivo y un nuevo paradigma de programación para el procesamiento de datos llamado Map Reduce [46], que es esencialmente el corazón de lo que hoy se conoce como tecnología Big Data [47] o grandes volúmenes de datos. El paralelismo masivo [48] permite ahorrar tiempo y recursos a la hora de ejecutar una aplicación. Se debe tener en cuenta que Facebook tiene internamente un gestor de base de datos NoSQL y descentralizado llamado Cassandra [49], está orientada a columnas, es decir, cada fila puede tener una configuración diferente de columnas, su escalabilidad es horizontal (a diferencia de las bases de datos SQL) y tiene un almacenamiento distribuido y rápida respuesta. Sin embargo Facebook maneja también parte de SQL para la carga del perfil de usuario el cual no requiere búsquedas NoSQL [50], por tal razón la red social es híbrida donde se mezcla tanto SQL como NoSQL para los datos internos y externos de cada perfil Aplicación de la fase de elaboración BIEP sí modelos indispensables en la arquitectura, la tabla 3 muestra los modelos pertenecientes a cada fase y flujo de BIEP. Tabla 3: Modelos pertenecientes a cada fase/flujo de BIEP FASES FLUJOS Inicio Elaboración Requerimientos Modelos de casos de uso Análisis Modelos de análisis: -Modelos entidad relación -Esquema conceptual de objetos en origen de datos -Esquema lógico de comunicación de las fuentes de datos -Esquema físico de fuentes de datos Fuente: Autores FLUJO DE REQUERIMIENTOS: Figura 2: Diagrama de casos de uso. Investigadores Definición del Problema Levantamiento de Requisitos Egresado Para obtener una arquitectura optima dentro de la metodología BIEP es necesario llevar a cabo algunos flujos ideales para que los resultados sean los esperados, por tal razón, en la presente investigación se aplican las dos primeras fases (Inicio y Elaboración) con sus respectivos modelos. Aplicación Fase de inicio Aplicación Fase de Elaboracion Escuela Ingenieria Sistemas a) Arquitectura óptima para la construcción del algoritmo de búsqueda y recolección de datos en Facebook Dentro de la relación entre fases y flujos es necesario tener en cuenta que cada uno de estos lleva dentro de Fuente: autores. En este primer flujo lo ideal es determinar los 187

189 requerimientos iniciales (Figura 2), definir los objetivos de minería de datos y definir los objetivos del negocio, de esta forma es sencillo tanto para el desarrollador como para el usuario reconocer a simple vista a través de modelos la arquitectura de la etapa de inicio y análisis del proyecto. Figura 4: Planteamiento inicial estrategia - Requerimientos: FLUJO DE ANÁLISIS: Dentro de esta etapa se debe dar un refinamiento a los requerimientos del flujo anterior, es decir, los casos de uso deben tener independencia entre si y se deben estructurar en un lenguaje apropiado para el cliente. El análisis consta de la identificación de las fuentes de datos y de la revisión del esquema lógico de las fuentes de datos (Figura 3) con el fin de verificar la calidad de los datos. - Esquema lógico de las fuentes de datos: Figura 3: Modelo Entidad Relación Fuente: Autores Como se observa en la Figura 4 el planteamiento contiene dentro de sí tres partes importantes para su aplicación en ambientes ideales, la interpretación se puede observar a continuación mediante las figuras 5. Figura 5: Diagrama de flujo para el planteamiento de la estrategia algorítmica. INICIO alimenta # * o BASE DE DATOS nombre correo_egresado telefono... Characters (30) Characters (30) Number (10) RED_SOCIAL # correo Characters (30) * nombre_usuario Characters (30) # * o pertenece_a EGRESADO nombre_egresado correo_egresado telefono... Characters (30) Characters (30) Number (10) NO SELECCIONAR BUSCAR CONTACTO SI UPTC NO DESCARTAR Fuente: Autores. SI ALMACENAR EN BASE DE DATOS b) Planteamiento del Prototipo inicial. Mediante la aplicación de las dos primeras fases (inicio y elaboración) de la metodología BIEP se logró diseñar el planteamiento inicial de la estrategia algorítmica para la búsqueda y recolección de datos. - PLANTEAMIENTO DE LA ESTRATEGIA FINAL - De acuerdo con el desarrollo de la metodología BIEP, los diagramas y modelos trabajados se pudo llegar al planteamiento de la estrategia algorítmica final (Figura 4). SI VOLVER A BUSCAR INFORMACIÓN NUEVA Fuente: Autores NO ING DE SISTEMAS COMPARAR CON BASE DE DATOS FORMACIÓN Y EMPELO INFORMACIÓN DE CONTACTO RECIDENCIA ACTUAL De aquí en adelante es necesario tener en cuenta que se realizaron las mismas comparaciones dependiendo de la información que falte o que deba ser actualizada en la base de datos existente. 188

190 RESULTADOS Una consecuencia de esta investigación se centra en el cumplimiento de las características para el planteamiento de algoritmos. La metodología BIEP resulta ser ideal para el planteamiento de algoritmos puesto que al aplicar las fases pertinentes se observo que la inteligencia de negocios que hace parte de la metodología y las redes sociales brindan beneficios relacionados con la información y la toma de decisiones a las instituciones y organizaciones. Se observa que la característica referente a que los algoritmos deben ser definidos obteniendo siempre el mismo resultado no se aplica para el caso debido a los datos evaluados siempre tienden a cambiar. El resultado general de aplicar la metodología BIEP fue la obtención del planteamiento de la estrategia algorítmica de carga de datos a través de la red social Facebook, teniendo en cuenta que algunos aspectos en la red social estaban predefinidos como fue el hecho de trabajar sobre el perfil de un usuario el cual tenía una muestra de treinta y cinco (35) egresados de la Escuela de Ingeniería de Sistemas y Computación de la UPTC, donde se tenía acceso a la información de forma rápida, por tal razón el ambiente se puede decir que era ideal al momento de acceder a los datos. La fase de inicio y la fase de elaboración del flujo de requisitos demandaron un mayor esfuerzo pues eran puntos críticos, por la fase de elaboración del flujo de análisis se marca como uno de los más complejos debido a la terminación y transición del flujo, lo cual requiere esfuerzo y trabajo constante y tiene como proyección final la elaboración de una base de datos completa compuesta por los datos básicos, académicos y laborales del egresado, los cuales serán destinados a apoyar la toma de decisiones en la Escuela de Ingeniería de Sistemas y Computación de la UPTC. Es necesario tener en cuenta que esta última fase es un trabajo futuro que no se desarrolló durante el transcurso de esta investigación. CONCLUSIONES La metodología BIEP resultó ser útil y eficiente para el diseño de estrategias para el planteamiento de algoritmos de búsqueda y recolección de datos. Dentro de la metodología BIEP existen puntos críticos en las fases y flujos los cuales requieren esfuerzo, tiempo y dedicación para obtener excelentes resultados. El planteamiento de la estrategia algorítmica está diseñado para la aplicación en ambientes ideales y su implementación como tal dentro de un sistema no ideal se puede lograr mediante aplicación de las siguientes fases de BIEP (construcción y transición). El planteamiento de la estrategia es una opción para lograr la comunicación entre la Escuela de Ingeniería de Sistemas y Computación y sus egresados, pero para solucionar la problemática general se requiere investigación profunda y búsqueda a través de ambientes no ideales. REFERENCIAS [1] J. L. Orihuela. (2008) Internet: la hora de las redes sociales. Nueva Revista. 58. Available: https://docs.google.com/file/d/0b7kqbnz7 HHLQN2U5ZDU1YWEtZDNmNi00YjI0L ThmMzAtMWI4YTEwN2Y3MWE1/edit?pl i=1&hl=es# [2] M. P. Subires Mancera and S. Omedo Salazar. (2013) Universidad, sociedad y networking: perspectivas ante el uso de las redes sociales de perfil académico profesional. Estudios sobre el mensaje periodistico. 11. Available: e/view/42188/40166 [3] A. S. Christo Wilson, Krishna P. N. Puttaswamy, and Ben Y. Zhao,, "Beyond Social Graphs: User Interactions in Online Social Networks and their Implications," p. 32, [4] (2012, 24 de Abril ). Informacion Instuticional de la Universidad Pedagógica y Tecnológica de Colombia. Available: [5] C. F. C. Roberto Hernández Sampieri, Pilar Baptista Lucio, Metodología De La Investigación, McGraw - Hill Interameticana De México ed. MÉXICO,

191 [6] J. W. Creswell, Research Design: Qualitative, Quantitative, and Mixed Methods Approaches. California, [7] E. J. H. Osorio, "Metodología Para El Desarrollo De Un Sistema De Inteligencia De Negocios Basada En El Proceso Unificado," Tesis de investigación como requisito parcial para optar al título de: Magíster en Ingeniería de sistemas y Computación, Departamento de ingeniería de sistemas e industrial, Universidad Nacional de Colombia, Bogotá,Colombia, [8] C. I. William H. Inmon, R. H. Terdeman, Exploration Warehousing: John Wiley & Sons, Inc. New York, NY, USA 1999, [9] Lineamientos Para La Acreditación De Programas De Pregrado, C. N. d. A. CNA Acreditación pregrados, [10] registro calificado de que trata la Ley 1188 de 2008 y la oferta y desarrollo de programas académicos de educación superior, Decreto 1295, [11] Pablonzord. (04 de marzo). Minería de Datos en las Redes Sociales. Available: 2011/09/mineria-de-datos-en-las-redessociales.html [12] C. V. Quesada. (2009, 5 de marzo). Redes sociales: Un concepto con importantes implicaciones en la intervención comunitaria. Available: aciones/social/1993/vol1/arti6.htm [13] A. R. D. Akay, Andrei Erlandsson, B. E., "A novel data-mining approach leveraging social media to monitor and respond to outcomes of diabetes drugs and treatment " presented at the IEEE EMBS Special Topic Conference on Point-of-Care (POC) Healthcare Technologies: Synergy Towards Better Global Healthcare, PHT 2013, [14] S. M. Tenzer, O. Ferro, and N. Palacios, "Redes Sociales Virtuales: personas, sociedad y empresa," p. 18, [15] S. M. Siles Moreno and L. d. C. Gómez Larios, "Uso de las redes sociales por los estudiantes en las carreras de la Facultad de Educación e Idiomas de la modalidad regular de la UNAN-Managua en el segundo semestre del año 2010," Monografía, [16] M. Jaramillo, "Analisis del social media Marketing en las principales redes sociales," Tesis para obtener el títilo de Ingeniero Comercial, Administracion de empresas, Universidad Politecnica Salesiana, Quito, [17] P. M. David Garcia, Frank Schweitzer. (2013, Social Resilience in Online Communities: The Autopsy of Friendster. Cornel University Library [Social and Information Networks]. Available: [18] D. W. Mike Thelwall, Sukhvinder Uppal, "Data mining emotion in social network communication: Gender differences in MySpace," Journal of the American Society for Information Science and Technology, vol. 61, p. 190, [19] Á. T. J. Hernando., Redes sociales y análisis de redes, Aplicaciones en el contexto comunitario y virtual. Barranquilla- Colombia: Corporación Universitaria Reformada, [20] A. GRAU, "Tus datos íntimos son una mina," in Elpais.com, ed. Madrid, España, 2009, p. 4. [21] I.-H. W. Ting, Hui-Ju. Chang, Pei-Shan, "Analyzing Multi-source Social Data for Extracting and Mining Social Networks," presented at the International Conference on Computational Science and Engineering, Kaohsiung, Taiwan [22] R. Merca2.0. (2013). Usuarios Facebook Available: [23] N. A. vasquez. (2009, 24 de abril de 2013). El uso profesional de las redes sociales. [social networks]. 8. Available: [24] L. K. C. Lic. Mercedes Vitturinil, Mg. Silvia Castro. (2009) Visualizaciín De Grandes Volúmenes De Datos. Departamento de Ciencias de la Computacion. 4. Available: 915/22175/Documento_completo.pdf?seque nce=1 190

192 [25] D. Margaix-Arnal. (2010) Redes Sociales y Web 2.0. Anuario ThinkEPI. 6. Available: pdf [26] M. P. M. Anthony J. Bradley, La organización Social: Convertir en resultados las oportunidades de las redes sociales. Barcelona, [27] D. Caldevilla Domínguez. (2010, 03- Febrero-2010) Las Redes Sociales. Tipología, uso y consumo de las redes 2.0 en la sociedad digital actual Documentación de las Ciencias de la Información. Available: e/view/dcin a/18656 [28] S. Z. Fong, Yan. Yu, Maya, Ma, Iris., "Quantitative Analysis of Trust Factors on Social Network using Data Mining Approach " presented at the 2012 International Conference on Future Generation Communication Technology (FGCT), London, [29] K. H. Jan H. Kietzmann, Ian P. McCarthy, Bruno S. Silvestre "Social media? Get serious! Understanding the functional building blocks of social media," Business Horizons, vol. 54, p. 10, junio de [30] Inforedsocial. (2011, 24 de abril). Business Intelligence a las Redes Sociales? hoy es posible. Available: mponent/content/article/2-general/444- ibusiness-intelligence-a-las-redes-socialeshoy-es-posible [31] L. Guo, "The Application of Social Network Analysis in Agenda Setting Research: A Methodological Exploration," Journal of Broadcasting & Electronic Media, vol. 56, p. 17, [32] A. C. Martínez, Estrategias empresariales en la Web 2.0 : las redes sociales online. España, [33] J. Zubcoff and J. Trujillo, "A UML 2.0 profile to design Association Rule mining models in the multidimensional conceptual modeling of data warehouses," Data & Knowledge Engineering, vol. 63, pp , [34] J. K. M. Han. (2011, 01 de abril ). KDD: Proceso de Extracción de conocimiento. Available: [35] A. R. S. Yadira Robles Aranda, "Integración de los algoritmos de minería de datos 1R, PRISM e ID3 a PostgreSQL," JISTEM - Journal of Information Systems and Technology Management, vol. 10, [36] S. L. Bill Calhoun, and Jiang Wu, SPE, Chevron; Phillip Hogan, SPE, and Kory Rutledge, Weatherford International Ltd., "Casing Wear Prediction and Management in Deepwater Wells," [37] M. P. Jigna J. Jadav, "Association Rule Mining Method On OLAP Cube," International Journal of Engineering Research and Applications (IJERA), [38] M. D. Network. (2012, 07 de mayo de 2013). Data Mining Algorithms (Analysis Services - Data Mining). Available: [39] G. M. V. Mariño Sonia Itatí, Alfonzo Pedro, Escalante Jaquelina E., Barrios Walter G., Primorac Carlos R., Fernández Mirta G., Alderete Romina Y., "Aplicación de procesos de ingeniería de requerimientos en la generación de productos software," ed: XIV Workshop de Investigadores en Ciencias de la Computación, [40] J. Z. Carlos Cobos, Juan Guarin, Elizabeth León, Martha Mendoza, "CMIN - herramienta case basada en CRISP-DM para el soporte de proyectos de minería de datos," INGENIERÍA E INVESTIGACIÓN, vol. 13, [41] Anonimo. (2010, 23 de abril). definición de algorítmos Available: diag.pdf [42] (2010, 01 de abril de 2013). Definicion caracteristicas de los algoritmos. Available: diag.pdf [43] F. R. A. B. Gabriel H. Tolosa. (2011, Modelos y algoritmos de búsqueda + redes sociales para aplicaciones verticales de recuperación de información. 5. [44] P. E. y. E. Cruz. (2008) Vigilancia tecnológica e Inteligencia Competitiva. Amec (Asociación Multisectorial de Empresas). Available: 191

193 a%20tecnologica%20aenor-iale% pdf [45] A. Q. Ortigosa, José Ignacio. Carro, Rosa M., "Inferring User Personality in Social Networks: A Case Study in Facebook," presented at the Diseño de Sistemas Inteligentes y Aplicaciones (ISDA), th International Conference on Intelligent Systems Design and Applications, Madrid, España, [46] J. Dean and S. Ghemawat, "MapReduce: a flexible data processing tool," Commun. ACM, vol. 53, pp , [47] D. G. Shroff. (2013, 01 de abril). Web Intelligence and Big Data. Available: https://www.coursera.org/course/bigdata [48] P. M. F. Miranda Natalia, Chávez Edgar, "Cálculo en tiempo real de identificadores robustos para objetos multimedia mediante una arquitectura paralela CPU-GPU," [49] E. Capriolo, Cassandra High Performance Cookbook vol. 2. Olton Birmingham, GBR, [50] D. Bartholomew, "SQL vs. NoSQL," Linux J., vol. 2010, p. 4, Tatiana Blanco Rojas - - Estudiante de Ingeniería de Sistemas y Computación (con terminación académica) de la Universidad Pedagógica y Tecnológica de Colombia. En este momento, desempeña el cargo de analista freelance donde realiza actividades de selección de personal, verificación de información y visitas de selección y rutina. Diana Milena Archila Córdoba - Estudiante de Ingeniería de Sistemas y Computación (con terminación académica) de la Universidad Pedagógica y Tecnológica de Colombia. Javier Antonio Ballesteros Ricaurte - Ingeniero de Sistemas, Magíster en Ciencias Computacionales. Docente Asistente, Escuela de Ingeniería de Sistemas y Computación Universidad Pedagógica y Tecnológica de Colombia. 192

194 Desarrollo de un Sistema de Interacción Multipantalla con Paypal, para la Gestión de Pedidos en Plazoletas de Comidas Sanabria Cely, Oscar Julián. Santamaría Granados, Luz Resumen El artículo desarrolla una propuesta de un sistema multipantalla para la solicitud y pago de pedidos en las plazoletas de comidas de centros comerciales. Se plantea una metodología de investigación que se divide en cuatro fases: la primera fase contempla el estado del arte y la aplicación de encuestas, la segunda fase presenta un estudio comparativo de frameworks de desarrollo y plataformas de transacciones monetarias para dispositivos inteligentes. La tercera fase se centra en la ingeniería del software y la última fase integra el sistema multipantalla con la plataforma de transacciones monetarias. Como resultado de la investigación se concluye que el sistema multipantalla para la gestión de pedidos en plazoletas de comidas, permite la interacción entre los clientes y establecimientos de restaurantes de forma segura y reduce los tiempos de espera en la solicitud, pago y entrega de los pedidos. Indice de términos Gestión de Pedidos, m- payment, plataforma Movl-Connect/Samsung, plataforma PayPal, Sistema multipantalla Abstract This paper develops a proposal of a multiscreen system to manage the ordering and payment request in squares of meals of malls. It raises a research methodology which is divided into four phases: the first focuses on state of the art and implementation of surveys, the second performed the comparative study of frameworks of development and m-payment platforms for smart devices. The third focuses on software engineering and the last phase integrates of multiscreen system with payments platform. As result of the investigation it is concluded that the multiscreen system to manage the ordering in squares of meals, allows interaction between customers and restaurants safely and reduce waiting times on the request, payment and delivery of orders. Index Terms Order Management, m-payment, PayPal platform, Movl-Connect/Samsung platform, multiscreen system L INTRODUCIÓN os administradores de restaurantes de comidas rápidas, supermercados y centros comerciales que tienen mucha concurrencia en la venta de productos, buscan implementar soluciones tecnológicas que reduzcan la congestión en la atención de los clientes y optimicen los tiempos de respuesta en la solicitud, pago y entrega de los pedidos. Las empresas han adoptado la estrategia de utilizar plataformas m-payment para la gestión de las transacciones de sus usuarios a través de la Web, pero aún se evidencia la necesidad de desarrollar aplicaciones a la medida del modelo del negocio, que integren todos los servicios para que el cliente en los sitios de plazoletas de comidas interactúe con aplicaciones móviles para gestionar los pedidos. Este proyecto propone una exploración tecnológica de tecnologías m-payment, Movl-Connect y frameworks de desarrollo para dispositivos móviles y sustenta la definición de la arquitectura del sistema de interacción multipantalla, para la gestión de pedidos en plazoletas de comidas. METODOLOGÍA En la Fig. 1, se relacionan las fases de la metodología de investigación, contemplada en el desarrollo del proyecto. En la fase exploratoria se realizó la revisión bibliográfica de libros especializados, artículos, sitios 193

195 Web dedicados a paradigmas de programación, plataformas y frameworks de desarrollo de software para dispositivos inteligentes existentes. También se relacionaron las empresas tecnológicas que se encargan de producir tecnologías innovadoras para el desarrollo de aplicaciones multipantalla tales como Samsung, Google, PayPal, The jquery Foundation, PhoneGap y Movl Connect. Para el estado del arte, se tuvo en cuenta la tecnología actual en plazoletas de comidas, las aplicaciones que utilizan tecnologías m- payment y plataformas tecnológicas que permiten la comunicación entre dispositivos inteligentes. Fig. 1. Fases de la metodología de investigación. Por último, se utilizaron instrumentos de investigación como encuestas y entrevistas aplicadas a los administradores de plazoletas de comidas rápidas en centros comerciales de Duitama y Tunja, con la finalidad de abstraer los requerimientos funcionales y no funcionales del sistema. Las tecnologías utilizadas para la entrega de pedidos en las plazoletas de comidas se caracterizan por sistemas como: el digiturno que es una interfaz gráfica que comunica al cliente que el pedido está listo. A diferencia de este el localizador inalámbrico [2], evita los llamados en alta voz y ubica con rapidez a los clientes por medio del localizador que activa luces, vibración y sonido. Con el sistema propuesto en este proyecto es posible reemplazar al localizador con un dispositivo móvil que automatice tanto el proceso de pedidos y pagos en línea o m-payment Algunos restaurantes [3] cuentan con aplicaciones para pagos en línea sobre ios a través de la plataforma de transacción PayPal [4], que facilita el pago de la factura pero no se centra en la automatización del pedido. La propuesta del sistema multipantalla evitaría el desarrollo de una aplicación por restaurante, ya que cada cliente descargaría la aplicación a su Smartphone, con la posibilidad de conectarse a cualquier restaurante que se encuentre en las plazoletas de comidas de distintas ciudades. Esta conexión se haría por medio de un código de acceso que se visualiza en el Smart TV para realizar el pedido y pagarlo por medio de una plataforma de transacciones monetarias. En Austria el sistema de pagos utiliza tecnología Near Field Comunication (NFC) [5], que ofrece el servicio de cuentas paybox y designa una cuenta bancaria para hacer compras limitadas a 50 dólares, los datos se transmiten cifrados y el usuario recibe un mensaje de texto de confirmación de la transacción. De igual forma funciona el sistema Visa Mobile Payment [6], que permite realizar pagos en el punto de venta y hacer transferencias con el uso de la tecnología PayWave [7]. PayMet [8] se considera como una plataforma de fidelización, publicidad y compras que integra el comercio tradicional con el comercio online, al permitir a un establecimiento comercial enviar la factura al cliente para su aprobación y pago. Por otra parte Apple con la aplicación Passbook [9], Samsung con Wallet [10] y Google Wallet NFC permiten al usuario gestionar sus finanzas a través de la billetera virtual de una forma segura y eficiente. Estas plataformas son innovadoras, pero en un contexto de plazoletas de comidas, el administrador del establecimiento comercial, deberá directamente tener contacto con el cliente para que este apruebe el pago. Movl-Connect [12] es una de las plataformas pioneras de comunicación entre dispositivos inteligentes, que facilita el desarrollo de videojuegos y aplicaciones centradas en la familia como Pokerfun, WeTeli y WeDraw. La plataforma MOVL Platform cuenta con un conjunto de librerías que facilitan la conexión entre Smartphones Android [13] [14], ios y Samsung Smart TV [15] o Google TV [16]. Su contraparte Samsung [17] proporciona una API (Application Programming Interface) denominada Samsung Chord [18], que da la posibilidad de interactuar entre dispositivos cercanos, intercambiando contenido sincronizado, mediante 194

196 mensajes y transferencia de datos, permitiendo la posibilidad de múltiples jugadores sin conexión internet. La segunda fase tiene en cuenta el estudio comparativo de frameworks multiplataforma [19] para desarrollo de software para la Web (ver Tabla 1). Framework Ventajas Desventajas Plataformas móviles soportadas Titanium Appcelerator Platform Sencha Touch Sproutcore Touch PhoneGap Rhodes [26] IUI [27] *Multiplataforma móvil y de escritorio. *JavaScript Compilado. * Aspecto y controles nativos. El mejor rendimiento. *Libre, soporte de pago. Licencia Apache [20] *Utiliza modelo vista controlador (MVC). *Ofrece soporte completo de AJAX, incluyendo CORS y JSON-P. *Manipulación del DOM. *Eventos táctiles. *Trabaja en conjunto con PhoneGap [22] * Open-source. * MIT License. * Ajax * MVC [24] *Corre en la mayoría de plataformas móviles. * Fácil de desarrollar. * Es libre, soporte de pago y Licencia BSD. * Permite utilizar algunas funcionalidades nativas. *Una gran comunidad activa. * Trabaja en conjunto con jquery Mobile y Sencha Touch. [20] * Se programan aplicaciones nativas de los dispositivos. * Es posible aprovechar las capacidades del dispositivo como: GPS, cámara, Bluetooth y (NFC). * MVC. * Licencia MIT. * Capacidad para manejar los cambios de orientación del teléfono. *Proporcionar una experiencia más iphone-like en sus aplicaciones Web. * Open Source. *Necesita Mac con Xcode para desarrollar aplicaciones ios. *Definición de componentes visuales y controles a mano. *No existe DOM, permite el uso de librerías como jquery [20] *No soporta cambio de orientación. *No tiene el soporte telefónico [23] Android, ios y BlackBerry [20] Android, ios, Windows Phone y BlackBerry [22] Tecnologías y lenguajes utilizados JavaScript [21] Html5, CSS3 y JavaScript. [22] - ios [24] Html5, CSS3 y JavaScript [24] *Necesita Mac con Xcode para desarrollar aplicaciones ios. * La aplicación es una página Web, lo que hace necesario el uso de un framework Web como jquery Mobile. *No tiene el rendimiento de una aplicación nativa. [20] Android, ios, BlackBerry, Bada, Windows Phone, WebOS, Symbian y Tizen. [25] - Android, ios, RIM, y Windows Phone. [26] * Tiene pocas funciones de elementos de interfaz de usuario y estilos de transiciones. Iwebkit [28] * Fácil de utilizar * Poca documentación. Zepto.js [29] * Si se entiende jquery es fácil de utilizar. ios, Android, Rim OS6, MeeGo, Bada, WebOS. ios - Todos los que soporten Webkit. Html5, CSS3 y JavaScript [25] Html5, Ruby. [26] Html5, JavaScript, CSS3. Html5, JavaScript, CSS3 Html5, JavaScript, CSS3. Jquery Mobile [30] * Tiene una buena documentación. * Construido sobre jquery y fundamento en jquery UI. *Su código está construido con ligera mejora. * Excelente documentación y una comunidad totalmente activa. * Trabaja con PhoneGap. * Soporta múltiples páginas en solo una. * Estilos personalizados con ThemeRoller. * Versiones publicadas en un corto tiempo, lo que obliga a actualizar las librerías. Android, ios, BlackBerry, Bada, Windows Phone, palm WebOS, Symbian y MeeGo. Tabla 1. Frameworks multiplataforma Html5, JavaScript, CSS3. En el estudio comparativo de plataformas de transacciones monetarias se resaltan características como: servicios, costo de servicios, la existencia de documentación para desarrolladores, la existencia de entornos de prueba de transferencia de dinero, de las plataformas de pagos online como: Eficash, Caixa Móvil, Simbatu, PayPal, Google Checkout y 123 Ticket. Las plataformas de desarrollo para dispositivos inteligentes están soportadas en el conjunto de herramientas del SDK (Software Development kit) [31] y se relacionan en la Tabla 2 [33]. SDK Plataforma Software Dispositivo Inteligente QT SDK Java ME SDK IDE OS Lenguaje Tipo OS IDE QT Creator NetBeans, Eclipse Multiplataforma C++ Nokia y dispositivos que soportan QT Multiplataforma JAVA ME Dispositivos embebidos móviles y otros teléfonos móviles. Symbian, MeeGo BlackBerry OS, Windows Phone, Android, Symbian Windows Phone. Windows Visual Multiplataforma C#, Visual Smartphone Phone Studio Basic.NET. marca Sony- SDK Ericsson, htc, palm, hp, Motorola, Samsung, LG Android Eclipse Multiplataforma JAVA Smartphone, Android OS SDK Tablets, Google TV, reproductores mp3, Netbooks, Pcs, lectores de e- books. ios SDK Xcode ios, Xlion OS Objective-C iphone, ipad. iphone OS, ipad OS. Samsung Propio, Windows, HTML 5, Samsung Linux 2.6 Smart TV Eclipse MAC OS, CSS3, Smart TV SDK [32] Linux JavaScript, Flash 11.1 y ActionScript 3.0 Tabla 2. SDK de dispositivos inteligentes Para el desarrollo de aplicaciones Web soportas en un MVC (Model View Controller) en la Tabla 3, se muestra una comparación de algunos frameworks para el servidor Web [33]. 195

197 Proyecto Lenguaje Ajax ORM Testeo Seguridad Catalyst Perl Toolkit-independent (REST & JSON support, specific plugins for Prototype JavaScript Framework, more) ASP.NET MVC DBIx::Class, Rose::DB::Object ASP.NET Si ORMindependent MonoRail ASP.NET Prototype Active record pattern Apache Click JavaServ er Faces JBoss Seam JAVA jquery Hibernate, Cayenne JAVA Si Yes, with extensions Supports Perl testing standards, Test Anything Protocol (TAP) Unit tests, Functional Tests, Integration Tests Unit tests Yes JUnit ACL-based, external engines, more ASP.NET Forms Authentica tion (Default), Pluggable via ASP.NET Forms Authentica tion Pluggable JAVA Si JPA, Hibernate JUnit, TestNG JAAS integration, Drools, Hibernate Filters, OpenID, CAPTCHA CakePHP PHP Prototype, script.aculo.us, jquery, jquery UI, MooTools, MooTools More Yii PHP jquery, jquery UI, own components, Plugins Active record pattern (CakePHP 1.x), data mapper pattern (CakePHP 2.x) Data Access Objects (DAO), Active Record Pattern, Plugins (incl. Doctrine 2.0) Tabla 3. Frameworks Servidor Web Unit tests, object mocking, fixtures, code coverage, memory analysis with SimpleTest and XDebug PHPUnit (cakephp 2.0) PHPUnit, Selenium Si ACL-based ACL-based, RBACbased, Plugins Al finalizar el estudio comparativo de los frameworks, las plataformas de transacciones monetarias y las plataformas de desarrollo de software se observa que en los frameworks van incluidas las tecnologías de software que pueden contribuir a la construcción del sistema propuesto. Para lo cual se selecciona por parte del servidor el framework CakePHP que tiene soporte por el lado del cliente a jquery y con el uso de listas de control realizar conexiones seguras a los gestores de las bases de datos. De parte del cliente se selecciona a jquery que utilizado en el desarrollo de aplicaciones para dispositivos inteligentes con jquery Mobile y PhoneGap. Este último se incluye como un framework multiplataforma, ya que permite gestionar recursos nativos de diversos dispositivos móviles como Android, ios, Windows Phone, WebOS, entre otros. La elección de la plataforma de transacciones monetaria más adecuada para el desarrollo del sistema, es PayPal, ya que provee de servicios para la transferencia de dinero entre cuentas bancarias externas y PayPal. Cuenta con una API de Servicio PayPal Sandbox que emula transferencias de dinero entre los usuarios y permite la interoperabilidad y certificación de seguridad a dispositivos móviles iphone y Android. Para construir la aplicación se utilizará la plataforma de desarrollo Android SDK para dispositivos inteligentes. La tercera fase se centra en el desarrollo del sistema, donde se tuvo en cuenta la metodología de desarrollo de software, UWE (UML-Based Web Engineering), basada en UML (Unified Modeling Language) y el uso del proceso unificado para modelar aplicaciones Web. Al extender UML, definiendo tipos, etiquetas de valores y restricciones para el diseño Web, es posible definir la navegación, presentación, procesos de negocio y aspectos de adaptación. Este modelo se compone de 6 etapas o sub-modelos, para este caso se tuvo en cuenta 5 modelos [34]: Fig.2. Modelo de caso de uso para la generalización de los actores Modelo de Casos de Uso: en forma general se presenta la definición funcional del sistema multipantalla. Primero se especifica la generalización de actores (ver Fig. 2), donde el actor Propietario establecimiento hereda la funcionalidad de los casos de uso del actor Empleado o Administrador establecimiento. En la Fig. 3, se especifica la funcionalidad del Host y se observa el proceso de solicitud del código al servidor Movl-Connect, este código se visualiza en la pantalla para que se puedan conectar los empleados y clientes. Por último se determina la interacción del propietario del establecimiento en el sistema. En la Fig. 4, se muestra la funcionalidad del Controller de un empleado o administrador del establecimiento y en la Fig. 5, se define la funcionalidad del Controller del cliente que describe el proceso de pago del pedido por medio de la plataforma de transacciones monetarias PayPal. 196

198 Fig. 3. Modelo de caso de uso para el uso del Host Fig. 5. Modelo de casos de uso para el Controller del Cliente lugars id-l int <pk> lugar_id-l int <fk> nombre varchar(50) tipolugar varchar(2) created datetime modified datetime monedas id-mo int <pk> moneda varchar(10) created datetime modified datetime establecimientos empleados created date modified date id-em int establecimiento_id int user_id-em int estadoe varc tipoproducts id-tp int <pk> establecimiento_id-tp int <fk> nombretipoproducto varchar(50) created datetime modified datetime id-es int <pk> user_id int <fk1> lugar_id int <fk2> moneda_id int <fk3> nombreestablecimiento varchar(50) direccion varchar(50) userpaypal varchar(50) logo varchar(50) created datetime modified datetime nit varchar(50) porcentajeiva decimal(4,2) razonsocial varchar(50) telefono numeric(20,0) filapedidos id-fpe int <pk> establecimiento_id-fp int <fk> products turno-fp int created datetime id-pro int <pk> establecimiento_id-p int <fk1> modified datetime estadopedido-f varchar(2) tipoproduct_id-p int <fk2> nombreproducto varchar(50) precioproducto decimal(9,2) stock int descripcionproducto varchar(200) foto varchar(50) created datetime modified datetime sistock bool detallefilapedidos estadoproducto varchar(2) id-dfp int <pk> filapedido_id int <fk1> product_id-dfp int <fk2> factura_id-dfp int <fk3> cantidad-f int importe-f decimal(9,2) created datetime modified datetime facturas id-fac int <pk> establecimiento_id-fac int <fk> numerofactura varchar(50) iva decimal(9,2) subtotal decimal(9,2) total decimal(9,2) created datetime modified datetime formapago varchar(2) detallepedido id-dp int pedido_id int product_id-dp int factura_id-dp int cantidad int created datetime modified datetime importe decimal( Fig. 6. Modelo físico para la base de datos parte 1 Fig. 4. Modelo de casos de uso del Controller para el empleado Modelo de Contenido: se define el modelo 197

199 conceptual para el desarrollo del contenido a través del diseño de la base de datos (ver Fig. 6 y Fig. 7). Para la lógica de la aplicación se presenta de forma general los diagramas de clases (ver Fig. 8). sistema envía la información al establecimiento. Finalmente el cliente recibe su turno. Modelo de Usuario: presenta el modelo de navegación e incluye modelos estáticos y dinámicos para el entendimiento del sistema. En el diagrama de secuencia (ver Fig. 9) se muestra la interacción que debe realizar un cliente desde su Smartphone para solicitar un pedido a un establecimiento. En este proceso primero debe estar autenticado en el sistema, luego conectarse al Host por medio del código de conexión visualizado en este. <pk> <fk1> <fk2> <fk3> (50) (50) (50) (50) e e (50) l(4,2) (50) c(20,0) filapedidos int <pk> cimiento_id-fp int <fk> p int d datetime ed datetime pedido-f varchar(2) detallefilapedidos id-dfp int <pk> filapedido_id int <fk1> product_id-dfp int <fk2> factura_id-dfp int <fk3> cantidad-f int importe-f decimal(9,2) created datetime modified datetime persons id-p int <pk> nombres varchar(50) apellidos varchar(50) empleados celular numeric(15,0) genero varchar(2) created datetime fechanacimiento date modified datetime id-em int <pk> created datetime modified datetime establecimiento_id int <fk1> fotopersona varchar(50) user_id-em int <fk2> estadoe varchar(2) users id int <pk> group_id int <fk1> person_id int <fk2> username varchar(50) password varchar(100) created datetime modified datetime groups id-g int <pk> name varchar(50) created datetime modified datetime pedidos facturas id-ped int <pk> id-fac int <pk> user_id-ped int <fk1> establecimiento_id-fac int <fk> establecimiento_id-ped int <fk2> numerofactura varchar(50) turno int iva decimal(9,2) created datetime subtotal decimal(9,2) modified datetime total decimal(9,2) estadopedido varchar(2) created datetime token varchar(50) modified datetime transactionid varchar(50) formapago varchar(2) amt decimal(9,2) feeamt decimal(9,2) securemerchantaccountid varchar(50) paymentstatus varchar(50) ack varchar(50) userpaypalcliente varchar(50) firstname varchar(50) lastname varchar(50) userpaypalestablecimiento varchar(50) taxamt decimal(9,2) currencycode varchar(4) paymentrequestid varchar(50) detallepedidos id-dp int <pk> pedido_id int <fk1> product_id-dp int <fk2> factura_id-dp int <fk3> cantidad int created datetime modified datetime importe decimal(9,2) Fig. 7. Modelo físico para la base de datos parte 2 Fig. 8. Modelo de diagrama de Clases En la Fig. 10, se define un diagrama que deja ver el estado del pedido desde la solicitud hasta la entrega del mismo. El empleado es el encargado de cambiar el estado del pedido. El pedido se encuentra en estado de solicitud cuando el cliente elige su pedido y lo paga por medio de PayPal o el empleado lo registra. Luego se imprime la factura y se cambia el estado a cocina. Después de estar preparado el producto el estado cambia a listo y por último cuando se entrega el producto el estado cambia a entregado. Por último se define el diagrama de navegación, donde se ve la interacción del usuario con el sistema, en este caso se presenta la interacción de un cliente, ver Fig. 11. Posteriormente el cliente recibe la carta de productos de los establecimientos conectados y elige los productos que desea comprar, acepta el pedido, se autentica en PayPal para confirmar la transacción. Luego se registra el pedido en la base de datos y el 198

200 Fig. 11. Diagrama de Navegación Cliente Fig. 9. Esquema de diagrama de secuencia para realizar un pedido Fig. 12. Flujo de Proceso de Pago en PayPal. Fig. 10. Diagrama de Estado de Pedido Modelo de estructura: se esquematiza el sistema y el modelo de flujo. Para especificar el modelo de estructura que representa el pago del pedido, se define el flujo de proceso pago en PayPal (ver Fig. 12), que muestra las acciones que el 199

201 usuario y el sistema deben realizan en la transferencia del dinero virtual. Cuando un cliente tiene su pedido listo, el sistema le presenta un resumen del mismo y él debe realizar la petición del pago a PayPal. El sistema recibe la petición de pago del cliente y allí se organizan los parámetros de la transacción (credenciales PayPal del establecimiento y pedido) y se obtiene el Token de PayPal, que representa la cuenta del establecimiento durante todo el proceso de la transacción. Luego se envía la información del pedido junto con el Token, para que el cliente se autentique en PayPal y autorice el pago del pedido para terminar el registro del pedido en el sistema. Fig. 13. Interfaz de usuario para el Host Modelo Abstracto: define la interfaz del usuario y el modelo de ciclo de vida del objeto. En la Fig. 13, se visualiza la interfaz de usuario para el Host, la interfaz de usuario para el empleado o administrador del establecimiento (ver Fig. 14) y la interfaz de usuario para el cliente (ver Fig. 15). Fig. 14. Interfaz de usuario para el empleado Fig. 15. Interfaz de usuario para el cliente Para la codificación del sistema se presenta de forma general la descripción de las clases más importantes para el controlador, desarrolladas con el framework CakePHP (ver Tabla 4, Tabla 5 y Tabla 6). La lógica del negocio se centra en el controlador, ya que es el encargado de administrar las solicitudes y respuestas del usuario. Cada controlador está ligado a su modelo para poder gestionar la base de datos y los métodos del controlador representan a las vistas. Atributos Name Component s Uses Métodos home Conectarse Pedidos instruccione s Paypal get_details informar_ pedido Descripción Atributo público de tipo String, que contiene el nombre del controlador, para poder ser llamado desde la url. Atributo público de tipo array, que permite cargar los componentes necesarios para la funcionalidad del sistema, como: Paypalnvp, encargado de la conexión con el servidor de Paypal via API-REST. Atributo público de tipo array, que permite habilitar este controlador sin la necesidad de que esté ligado a un modelo. Descripción Método que representa a la vista. Menú principal de cliente. Método que representa a la vista. Permite establecer la conexión con el host, recibir la carta de los establecimientos conectados y realizar el pedido. Método que representa a la vista. Permite consultar los pedidos realizados. Método que representa a la vista. Permite conocer las instrucciones del sistema concerniente al usuario cliente. Método que representa a la vista. Recibe el pedido del cliente y lo organiza según la estructura de la petición de PayPal (SetExpressCheckout), luego se muestra la página de autenticación de PayPal, para que el mismo cliente, autorice continuar con el proceso de pago. Método que representa a la vista. Recibe la respuesta de PayPal, que contiene la información referente al pedido (GetExpressCheckoutDetails), Token y PayerID. También muestra el resumen del pedido para que el cliente, confirme la transferencia del dinero (DoExpressCheckoutPayment). Luego del pago, el pedido se registra en la base de datos. Método que representa a la vista. Informa al establecimiento de un nuevo pedido, por medio del servidor Movl. Tabla 4. Clase MenuclientesController La cuarta y última fase de la investigación se basa en la integración del sistema multipantalla con la plataforma de transacciones monetarias. Este ítem se desarrolla en el apartado de resultados. 200

202 Atributos Name Components Uses Métodos home Conectarse pedidos_solicitud editar_turnopedido editar_estadopedido registrar_filapedido() Atributos Name Components Métodos Add Login Logout Descripción Atributo público de tipo String, que contiene el nombre del controlador, para poder ser llamado desde la url. Atributo público de tipo array, que permite cargar los componentes necesarios para la funcionalidad del sistema, como: RequestHandler, encargado de manejar las peticiones y respuestas, es utilizado para consultar la base de datos por medio de Ajax. Atributo público de tipo array, que permite habilitar este controlador sin la necesidad de que esté ligado a un modelo. Descripción Método que representa a la vista. Menú principal del empleado. Método que representa a la vista. Permite establecer la conexión con el Host, enviar la carta del establecimiento al mismo, recibir, registrar, consultar y facturar los pedidos del día. También informar el turno listo al Host. Método que representa a la vista. Recibe el id del establecimiento, consulta y devuelve los pedidos del día ordenados por turno. Método que representa a la vista. Recibe el id y el turno asignado del pedido, actualiza el turno y devuelve el pedido actualizado. Método que representa a la vista. Recibe el id y el estado del pedido, actualiza el estado y devuelve el pedido actualizado. Método que representa a la vista. Recibe el pedido de la persona que no posee Smartphone, lo registra en la base de datos y devuelve el pedido registrado. Tabla 5. Clase MenuempleadosController Descripción Atributo público de tipo String, que contiene el nombre del controlador, para poder ser llamado desde la url. Atributo público de tipo array, que permite cargar los componentes necesarios para la funcionalidad del sistema, como: Auth y Acl, encargados de la autenticación, autorización y listas de control de acceso respectivamente. Descripción Método que representa a la vista. Toma el id del registro de la persona, enviado desde la vista add de PersonasController, para poder solicitar al usuario el username y password, para el registro del mismo. Método que representa a la vista. Permite recibir username y password para la autenticación y autorización del usuario en el sistema. Método que permite cerrar sesión del usuario. Tabla 6. Clase UsersController Transferencia de Estado Representacional (REST, Representational State Transfer) al servidor PayPal. La comunicación mediante el envío de mensajes entre el Host (sala) y el Controller (empleado) se realiza por medio de una conexión segura con respaldo de SSL (Secure Sockets Layer) al servidor Movl-Connect. También es posible que el Host y el Controller accedan al servidor Movl-Connect mediante una conexión inalámbrica. El sistema multipantalla permite crear una sala (Host), que ofrece la posibilidad de conexión a los establecimientos y clientes registrados. Los clientes reciben a su smartphone la carta de menú del restaurante y solicitan el pedido a los establecimientos que están conectados. El cliente paga sus pedidos a través de PayPal, al autorizar la transacción monetaria entre cuentas PayPal, los pedidos son registrados en la base de datos y se les asigna un turno. El empleado se encarga de gestionar el pedido recibido desde el equipo que realizó la conexión, cambiándole el estado, pasándolo de solicitud a cocina, de cocina a listo y de listo a entregado. Cuando el pedido pasa a estado listo, el turno del pedido es visualizado en la pantalla de la sala (Host). EXPLICACIÓN DE LOS RESULTADOS En la Fig. 16, se muestra la arquitectura del sistema de interacción multipantalla para la gestión de pedidos en plazoletas de comidas, está basada en el modelo Cliente/Servidor [35]. El Cliente a través del dispositivo móvil accede localmente por la red inalámbrica o por la red de telefonía móvil (por ejemplo: Universal Mobile Telecommunications System UMTS, Global System for Mobile communications - GSM o Long Term Evolution - LTE), con el propósito de realizar peticiones al Servidor Web (CakePHP), el cual está encargado de la lógica del negocio, las consultas al servidor de la base de datos (MySQL), la gestión y seguridad en las transacciones monetarias por medio de peticiones de Fig. 16. Esquema de la Arquitectura del sistema multipantalla Se realizaron pruebas de integración del sistema multipantalla para el pago de los pedidos con PayPal. En la Fig. 17, se presenta el resumen del pedido del cliente con un establecimiento de comidas rápidas. Luego que el cliente ha escogido su pedido se dirige a pagarlo en PayPal. Para que el cliente pueda cancelar su pedido los datos deben ser estructurados 201

203 de acuerdo a los parámetros de PayPal. En estos parámetros además de los productos, se debe definir la moneda para la transacción y consultar la cuenta PayPal del establecimiento para solicitar el Token de autenticación (ver Fig. 18). transferencia monetaria (ver Fig. 20) Fig. 19. Prueba de Página Login PayPal Fig. 17. Prueba de resumen del pedido Fig. 20. Prueba GetExpressCheckoutDetails Fig. 18. Prueba de parámetros enviados en el SetExpressCheckout Cuando se obtiene el Token, el servidor se redirecciona a PayPal junto con el Token. La página que se visualiza es el Login de PayPal, allí es posible ver el resumen del pedido y es donde se solicita al cliente su usuario y contraseña (ver fig. 19). Luego de ingresar el usuario y contraseña, el cliente autoriza el pago. El servidor PayPal se redirecciona a la URL de confirmación de pago del servidor multipantalla, enviando el PayerID. En esta página se presenta el resumen del pedido a ser confirmado y el cliente puede autorizar la Fig. 21. Prueba DoExpressCheckoutPayment Cuando el cliente autoriza la transferencia monetaria, se recibe la respuesta de su petición, 202

204 donde se informa lo sucedido (ver Fig. 21). Una transferencia exitosa resulta en Success, en la variable PAYMENTINFO_N_ACK, donde N va desde (0-9), esto significa que es posible realizar pagos a 10 establecimientos al mismo tiempo (ver Fig. 22). establecimiento, muestra la página para el móvil, pero cuando se realizan pagos a más de un establecimiento a la vez, la página que muestra es la diseñada para un PC (Personal Computer). Fig Response DoExpressCheckoutPayment Prueba. Fig Perfil PayPal Establecimiento Prueba. En cuanto a la verificación de los tiempos de solicitud actualmente un cliente tarda en ser atendido por el empleado de un establecimiento entre 3 a 5 minutos. Suponiendo que delante de un cliente están haciendo fila 3 personas, este se demoraría en solicitar su pedido de 15 a 20 minutos. Si este cliente utilizara el sistema multipantalla, se demoraría solicitando su pedido entre 1:40 a 2 minutos en un solo establecimiento y sin tener la necesidad de hacer fila. CONCLUSIONES Fig. 23. Perfil PayPal Cliente Prueba. PayPal cuenta con una plataforma de pruebas de pagos (Sandbox), que hace posible ver lo que ocurre en cada perfil de PayPal. En el perfil del cliente se puede ver el descuento de dinero que ocasiono el pago al establecimiento (ver Fig. 23). También en el perfil del establecimiento, se observa el pago recibido del cliente, el estado y la comisión que cobra PayPal, por asegurar la transferencia de dinero al establecimiento (ver Fig. 24). PayPal tiene un inconveniente con la interfaz de usuario móvil. Cuando un cliente realiza un pago a un solo En el estudio exploratorio se analizaron las tecnologías tradicionales utilizadas para la entrega de pedidos, las plataformas de pagos de facturas en línea, pero sin automatizar el pedido en los restaurantes. Ante esta necesidad y aprovechando el surgimiento de plataformas para la conexión de dispositivos inteligentes como Samsung (que integró la tecnología Movl-connect), Google, Apple, entre otros, se propuso la arquitectura para el sistema multipantalla para la gestión de pedidos en plazoletas de comidas, que permite la interacción entre clientes 203

205 y los establecimientos de forma eficiente y confiable y reduce significativamente los tiempos de espera en la solicitud y pago del pedido. En el proyecto se realizaron entrevistas y encuestas a los administradores y propietarios de los locales de plazoletas de comidas de centros comerciales de la región, en su mayoría manifestaron interés en el cambio tecnológico, pero otros expusieron sus temores a los riesgos de seguridad en el manejo de transacciones con sistemas m-payment. A partir de estas situaciones se definieron los requerimientos para el sistema multipantalla con el uso de frameworks y plataformas de desarrollo que integran la AAA (Authentication, Authorization and Accounting) en la prestación de los servicios. Los dispositivos smartphones a través de la tecnología de comunicaciones NFC (Near Field Communications) han integrado el uso de la tarjeta de crédito móvil [36], para el manejo de pagos en línea, aunque es una solución innovadora, requiere de la definición de un modelo de negocio para incursionar en el mercado, así como el desarrollo de frameworks y aplicaciones que faciliten la interoperabilidad de las transacciones financieras entre clientes y empresarios en la gestión de la calidad de servicios e-commerce [37]. [1] [2] [3] [4] [5] REFERENCES Kenneth E. Kendall and julie E. Kendall, Análisis y diseño de sistemas. México: Pearson Educación, Eusko Jaurlaritza and Gobierno Vasco, DIAE - Tramitación y pago móvil Estudio de plataformas de pago por móvil v2.1. España, M Field Communication World. (2012) McDonald es para poner a prueba basados en la nube pagos NFC en Austria. [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] VISA. (2012) Visa: Innovation in Mobile Payments and Services. [Online]. HYPERLINK "http://corporate.visa.com/_media/visa-mobile-story.pdf" VISA. (2012) Visa paywave. [Online]. HYPERLINK "http://www.visaeurope.es/es/sobre_visa_europe/qu%c3%a 9_hacemos/innovaci%C3%B3n/visa_paywave.aspx" _hacemos/innovaci%c3%b3n/visa_paywave.aspx PayMet. (2013) PayMet. [Online]. "https://www.paymet.com/developers.html" https://www.paymet.com/developers.html HYPERLINK Renfe. (2013) Tarjeta Joven. [Online]. HYPERLINK "http://www.renfe.com/viajeros/tarifas/tarjeta_joven_passboo k.html" k.html AlaMaula. (2013) Localizador inalambrico. [Online]. HYPERLINK "http://www.alamaula.com.co/bogota/computadoreselectronica/localizadores-inalambricos-para-plazoletas-decomidas-reemplaza-digiturnos-de-restaurantesmeseros/ " Delos Solutions ltda. (2012) How it works. [Online]. HYPERLINK "http://www.delossolutions.com/en/howitworks.aspx" [Online]. HYPERLINK "http://www.nfcworld.com/2012/04/24/315260/mcdonaldsto-test-cloud-based-nfc-payments-in-austria/" PortalTIC. (2013) Samsung presenta Wallet, su propio sistema de pago móvil. [Online]. HYPERLINK "http://www.europapress.es/portaltic/software/noticia- samsung-presenta-wallet-propio-sistema-pago-movil html" samsung-presenta-wallet-propio-sistema-pago-movil html Google. (2013) Frequently Asked Questions. [Online]. HYPERLINK "http://www.google.com/wallet/faq.html" MOVL. (2012, Enero) BETA MOVL CONNECT PLATFORM. [Online]. HYPERLINK "http://connect.movl.com/" Chris Haseman, Android Essentials.: Apress, James Steele and Nelson To, The Android Developer's Cookbook: Building Applications with the Android SDK.: Pearson Education, Samsung Electronics Co., Ltd. (2011) AppsFramework. [Online]. HYPERLINK "http://www.samsungdforum.com/upload_files/files/guide/da ta/html/html_3/apps_framework/appsframework_cover.html" a/html/html_3/apps_framework/appsframework_cover.html Google. Google TV. [Online]. HYPERLINK "https://developers.google.com/tv/android/" https://developers.google.com/tv/android/ Samsung Developers. (2013) Samsung Web API. [Online]. HYPERLINK "http://developer.samsung.com/samsungwebapi" Samsung Developers. (2013) Chord. [Online]. HYPERLINK "http://developer.samsung.com/chord" 204

206 [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] Demián Gutierrez. (2010) Frameworks y Componentes. [Online]. HYPERLINK "http://www.codecompiling.net/files/slides/is_clase_10_fram eworks_componentes.pdf" eworks_componentes.pdf José Marin De la Fuente. (2013) Phonegap y Titanium Appcelerator. [Online]. HYPERLINK "http://www.marindelafuente.com.ar/phonegap-y-titaniumappcelerator/" Appcelerator Inc. (2013) Appcelerator Platform. [Online]. HYPERLINK "http://www.appcelerator.com/platform/appceleratorplatform/" Sencha Inc. (2013) Sencha Touch Build Mobile Web Apps with HTML5. [Online]. HYPERLINK "http://www.sencha.com/products/touch/" Strobe Inc.. (2011) Sproutcore. [Online]. HYPERLINK "http://sproutcore.com/" Adobe Systems Inc. (2013) PhoneGap. [Online]. HYPERLINK "http://phonegap.com/" Wikimedia Foundation, Inc. (2013) Multiple phone webbased application framework. [Online]. HYPERLINK "http://en.wikipedia.org/wiki/multiple_phone_webbased_application_framework" Motorola Solutions, Inc. (2013) Rhodes. [Online]. HYPERLINK "http://www.motorolasolutions.com/us- EN/RhoMobile+Suite/Rhodes" EN/RhoMobile+Suite/Rhodes iui. (2012) iui. [Online]. HYPERLINK "http://www.iuijs.org/" SnippetSpace. (2013) iwebkit. [Online]. "http://snippetspace.com/portfolio/iwebkit/" Thomas Fuchs. (2013) Zeptojs. [Online]. "http://zeptojs.com/" HYPERLINK HYPERLINK The jquery Foundation. (2013) Jquery Mobile. [Online]. HYPERLINK "http://jquerymobile.com/" 4r Soluciones Inteligentes. (2013, Mar.) Qué es un kit de desarrollo de software (SDK)? [Online]. HYPERLINK "http://www.4rsoluciones.com/que-es-un-kit-de-desarrollode-software-sdk/" SAMSUNG. (2013) Samsung Developers. [Online]. HYPERLINK "http://developer.samsung.com/develop" Johanna Fernanda Rengifo Briñez and carlos Alberto Betancourt Pérez, Frameworks y herramientas para el desarrollo de aplicaciones orientadas a dispositivos móviles. Pereira: Universidad Tecnológica de Pereira, [34] [35] [36] [37] Miguel Javier de la Rosa Escolante. (2009) Estudio de UWE (UML-Based Web Engineering). [Online]. HYPERLINK "http://www.fileden.com/files/2009/12/21/ /estudio %20de%20UWE.pdf" 20de%20UWE.pdf S. Manvi, L. Bhajantri, and M. Vijayakumar, "Secure Mobile Payment System in Wireless Environment," Computer Communication Control and Automation (3CA), 2010 International Symposium on, pp , Garry Wei-Han, Keng-Boon Ooi, Siong-Choy Chong, and Teck-Soon Hew, "NFC mobile credit card: The next frontier of mobile payment?," Telematics and Informatics, vol. 31, pp , W. Zuo, Q. Huang, Chan Fan, and Z. Zhang, "Quality management of B2C e-commerce service based on human," Elsevier. Electronic Commerce Research and Applications 12., pp , [3 Sanabria Cely, Oscar Julián. Estudiante de la 8] Facultad de Ingeniería de Sistemas. Integrante del Semillero de Investigación de Videojuegos del Grupo de Investigación y Desarrollo de Ingeniería en Nuevas Tecnologías (GIDINT). Ponente en Red COLSI con Herramientas para el desarrollo de videojuegos sobre plataformas Android. Santamaría Granados, Luz. Ingeniera de Sistemas, Especialista en Telemática, Magíster en Ciencias de la Información y las Comunicaciones con énfasis en sistemas de información de la Universidad Distrital Francisco José de Caldas. Docente investigadora de la Facultad de Ingeniería de Sistemas y del programa de Maestría en Pedagogía de la Universidad Santo Tomás Seccional Tunja. Integrante del Grupo de Investigación y Desarrollo de Ingeniería en Nuevas Tecnologías (GIDINT), en las áreas de interés de Realidad Virtual, Redes de Comunicaciones y Educación

207 Modelos de Usuario y Sistemas Adaptativos de Aprendizaje Miguel A. Mendoza M., PhD(c) Ciencias de la Electrónica, Universidad del Cauca (Colombia). Docente Universidad Pedagógica y Tecnológica de Colombia, Carolina González S., PhD en Tecnologías de la Información y las Comunicaciones, Universidad de Vigo (España), Docente Universidad del Cauca (Colombia) Resumen El desarrollo tecnológico ha permitido ofrecer soluciones en el campo educativo por medio del e-learning y recientemente con el área TeL (Tecnology enhanced Learning). A la fecha se registran múltiples aplicaciones y dispositivos que apoyan los procesos educativos, pero desde la óptica investigativa, se hace necesario ver de forma holística el área educativa, de manera que la incursión tecnológica tenga que involucrar los preceptos pedagógicos y psicológicos intervinientes en la formación integral del estudiante. Esto ha llevado a que se analice con mayor detenimiento al estudiante con una visión integral frente a los sistemas de información en los que desarrolla su proceso formativo. A su vez, los sistemas adaptativos de aprendizaje promueven un esquema formativo personalizado a las características de cada estudiante. En tal propósito, en el presente documento se analizan los modelos de estudiante que representan la caracterización de este usuario frente al sistema, con respecto a los sistemas adaptativos de aprendizaje, promoviendo al término la propuesta de un modelo integral de representación del estudiante. Abstract Technological development provides solutions for the educational field through e-learning and Technology enhanced Learning area (TeL). To date, many applications and devices support educational processes, but, since researching, it is necessary to treat holistically the educational field. So, technological developments must to consider the pedagogical and psychological topics to obtain a comprehensive training for the student. That situation has permit to analyze in a better and comprehensive way the student for the learning information systems that she will use. In turn, adaptive learning systems promote a personalized training scheme corresponding to each student's characteristics. For this, the document presents an analysis of student models to represent their characteristics from the system, regarding adaptive learning systems. It promotes an approach to a comprehensive model to represent each student. Lista de términos Instrucción Asistida por Computador, Modelo de Estudiante, Sistemas Adaptativos de Aprendizaje, Tecnologías de apoyo al Aprendizaje. Index Terms Adaptive Learning Systems, Computer aided instruction, Learner Model, Technology enhanced Learning. E I. INTRODUCCIÓN L crecimiento exponencial que ha tenido la Ingeniería de Software le ha permitido especializar sus dominios conduciéndose desde las "buenas prácticas" hacia los terrenos de los "procesos formales" con un alto grado de rigurosidad científica. El análisis y diseño de sistemas de información ha permitido estructurar de mejor manera la labor del personal vinculado a la Ingeniería de Software y en tal propósito ha tomado amplia relevancia el análisis de los usuarios y su experiencia frente al sistema [1]. Es obvio que todo sistema de información debe centrar su funcionalidad en el usuario; así, si se trata de un sistema de aprendizaje, ese usuario es el estudiante, quien desde los preceptos pedagógicos es el actor principal del proceso educativo [2], por consiguiente el equipo de desarrolladores de sistemas educativos debe rigurosamente conocer a este actor desde la perspectiva pedagógica y psicológica (ciencias educativas) en lugar de la perspectiva tecnológica (ciencias computacionales); ésta ha sido una debilidad detectada en muchos sistemas de 206

208 aprendizaje. Ahora bien, si el sistema de aprendizaje es de tipo adaptativo, el proceso de caracterización del estudiante debe ser más elaborado, pues la información que sea integrada al modelo de estudiante es la base fundamental para que el proceso de adaptación sea efectivo. Esta situación es el eje central en el tratamiento del presente documento, generado como un producto de la investigación a nivel doctoral titulada "Marco de Referencia para la Elaboración de Modelos de Estudiante en Sistemas Adaptativos de Aprendizaje". En la siguiente sección se presentará el contexto explicativo de los sistemas adaptativos de aprendizaje, los tipos de adaptación y los modelos de estudiante. Posteriormente se presenta la propuesta del Modelo de Estudiante Integral resultante del avance investigativo de los autores. Se finaliza con las conclusiones sobre lo tratado. II. SISTEMAS ADAPTATIVOS DE APRENDIZAJE Y MODELOS DE ESTUDIANTE En el presente apartado se brindan los conceptos fundamentales del estudio, a fin que la propuesta posteriormente presentada sea de fácil entendimiento. A. Sistemas Adaptativos de Aprendizaje La innovación tecnológica ha brindado a los procesos educativos elementos adecuados para dinamizar las actividades del ciclo de generación del conocimiento. Para tal fin se conjugan los preceptos pedagógicos con los modelos de representación y tratamiento de las actividades del estudiante en sistemas desarrollados dentro del área de e-learning. actores educativos (estudiante, tutor, entorno) corresponde a los Sistemas Educativos Adaptativos e Inteligentes Basados en Web (Adaptive and Intelligent Web-based Educational Systems AIWBES) [3], [4]. AIWBES dota al sistema educativo de técnicas provenientes de tres vertientes, a saber: (i) Adaptativas, (ii) Inteligencia y (iii) Webinspiradas [5]; bajo su clasificación se encuentran los Sistemas Educativos Adaptativos Basados en Web [6] (Adaptive Web-based Educational Systems- AWbES), los Sistemas Hipermedia Adaptativos Educativos [7] (Adaptive Educational Hypermedia Systems -AEHS), los Sistemas Educativos Basados en Web [4] (Web-based Educational Systems - WBES) y los Sistemas Tutoriales Inteligentes [8] (Intelligent Tutoring Systems- ITS. Es posible determinar en la anterior clasificación que cualquiera de los sistemas puede incluir técnicas de cualquier vertiente, para cumplir funciones ya sea de: (i) Hipermedia Adaptativa, (ii) Filtrado de Información Adaptativa, (iii) Monitoreo Inteligente, (iv) Aprendizaje Colaborativo Inteligente o, (v) Tutoría Inteligente. El sistema determina su nivel de adaptabilidad cuando busca ser diferente para diversos estudiantes y grupos, tomando en cuenta información acumulada en sus modelos de representación [5]; mientras que los Sistemas Inteligentes particularmente vinculan técnicas del campo de la Inteligencia Artificial (Artificial Intelligence- AI) para proveer un soporte más amplio y mejor para los procesos de modelado del estudiante, diálogo en lenguaje natural, modelado cognitivo, evaluaciones, entre otros temas [9] (figura 1). En este sentido, Peter Brusilovsky22 -autoridad en la disciplina objeto de estudio-, destaca que la gran área del e-learning que da tratamiento a los procesos que giran en torno a la interacción de los 1 Peter Brusilovsky, Docente School of Information Sciences and Intelligent Systems Program. Universidad de Pittsburgh, Áreas de investigación: Sistemas Adaptativos Basados en Web, Hipermedia Adaptativa, Computación social y Web Social, Sistemas Tutores Inteligentes y Shells, Modelamiento de Usuario y Estudiante, Interfaces Adaptativas, e-learning Personalizado. URL: Fig. 1. Tecnologías AIWBES Integradas. Fuente: el Autor adaptando [3]. Relación de funcionalidades y tecnologías para la operación de los sistemas AIWBES. 207

209 A partir de la anterior clasificación, los sistemas AIWBES se han descrito abiertamente como Sistemas Adaptativos de Aprendizaje (en adelante ALS), dejando implícita la tecnología de apoyo a la navegación web y la posibilidad de vincular técnicas del campo de la Inteligencia Artificial. La literatura relacionada evidencia que los ALS (ya sea de las técnicas adaptativas, web-based y/o inteligentes), está compuesto funcionalmente por cinco (5) modelos [10]: Dominio, Contexto, Pedagógico, Adaptación y Estudiante, que se tratarán brevemente a continuación. El modelo de Dominio especifica el diseño conceptual del sistema por medio de la estructura del conocimiento (unidades temáticas y conceptos), la estructura del diseño instruccional (rutas instruccionales) y el enlace entre el conocimiento y el diseño instruccional. El modelo de Contexto hace referencia a las características ambientales en que el sistema está operando. fundamentaba básicamente en las características del usuario abstraídas en el modelo de usuario, sin embargo él mismo hace la actualización de su concepto apoyado en lo definido por Kobsa [13] clasificando tres enfoques de adaptación: (1) Basada en la información del usuario, (2) basada en la información de uso y (3) basada en la información del entorno. La adaptación basada en la información del usuario corresponde al reconocido y tal vez principal objetivo de adaptación, el usuario y sus características. La adaptación basada en información de uso corresponde a la interacción del usuario con el sistema que no se puede resolver con las características del usuario. Finalmente la adaptación basada en la información del entorno relaciona la información del contexto que no es propia del usuario. El modelo Pedagógico (instruccional) corresponde a las especificaciones propias de la didáctica con la cual se ha realizado el planeamiento curricular (instruccional). El modelo de Adaptación contiene la lógica con la cual se produce la adaptación del sistema al estudiante. El modelo de Estudiante recopila la información propia del usuario, sus datos personales, datos de uso y datos de entorno [11]. De esta manera, un ALS orquesta cinco modelos específicos para proporcionar su funcionalidad, siendo destacado que el modelo de estudiante es el que reviste la mayor importancia, pues el modelo de adaptación se abastecerá de su información para promover materiales y actividades acordes a los modelos restantes, pero correspondientes al nivel e intensidad que amerita cada estudiante. B. Tipos de Adaptación Brusilovsky [12] define que en los sistemas adaptativos inicialmente la decisión de adaptación se Fig. 2. Tipos de adaptación clásica. Esta tipificación fue establecida para sistemas de aprendizaje representados fundamentalmente en esquemas web y centrados en el nivel de conocimiento del estudiante (Fuente: [12]). De otro lado, el mismo Brusilovsky [12] desde la perspectiva de los AEHS especifica una taxonomía que incluye dos áreas de adaptación (Figura 2): (1) 208

210 Adaptación a nivel de contenido o presentación adaptativa y (2) Adaptación a nivel de enlaces o soporte a la navegación adaptativa. A su vez, la presentación adaptativa se subdivide en adaptación de texto (adaptación del texto conservado y adaptación de lenguaje natural), adaptación multimedia y adaptación de modalidad, mientras que el soporte a la navegación adaptativa fue subdividido en ocultamiento de enlaces, clasificación, anotación, guía directa y la adaptación del mapa hipertexto. Adicionalmente, García [14] concreta su propia propuesta de personalización para los sistemas E- Learning Adaptativos (Adaptive e-learning -AEL) (por él denominados) con tres categorías: (1) Presentación referida a la intra e inter relación de objetos de aprendizaje, (2) Interacción referida al acceso, presencia y activación adaptable de materiales y (3) Composición que corresponde a la escalabilidad de estructuras adaptables en correspondencia con la Figura 3. C. Modelo de Estudiante Como se ha indicado, ALS mantiene su interés por constituir sistemas que puedan personalizarse con las características de cada estudiante. Esta premisa se ha constituido en una bandera con la que se han realizado diversos desarrollos en el mundo con respecto a los modelos de estudiante, que esencialmente pretenden captar la información característica del estudiante, junto con la derivada de su interacción con el sistema al cumplir su proceso formativo. Fig. 3. Taxonomía para Adaptive E-Learning. De una forma más genérica se definen los elementos de un sistema e-learning adaptativo (Fuente: [14]). García [14] define un esquema de clasificación de métodos adaptativos a partir de tres dimensiones básicas: (1) entidades adaptables, tales como el contenido de aprendizaje, selección de material y rutas instruccionales o anotaciones; (2) rasgos personales del estudiante como el conocimiento previo, preferencias o intereses individuales; (3) razones de la personalización, caso tal del modelo de preferencia, compensación de los déficit de conocimiento o incremento de la eficiencia ergonómica. A su vez el mismo autor hace una abstracción de la propuesta [15] con cuatro categorías: (1) secuenciamiento adaptativo, (2) interfaces incrementales, (3) presentación adaptativa y (4) soporte a la navegación adaptativa. Dependiendo del sujeto del dominio, los modelos de estudiante pueden crearse con sub-modelos pertenecientes a uno de dos tipos [16]: (i) Información específica del dominio (escalar, superposición, error, genético, conocimiento primario, registros de actividades, registros de valoraciones y evaluaciones) o, (ii) Información independiente del dominio (objetivos, actitudes cognitivas, estado motivacional, datos históricos y factuales, bagaje y experiencias, e inclusive las derivadas de las ocho (8) inteligencias múltiples). Los componentes que constituyen el modelo de estudiante describen los objetos y los procesos en términos de relaciones espaciales, temporales y causales [17]. La literatura científica muestra que los modelos de estudiante cuentan con un nivel de madurez garantizado por los esfuerzos investigativos de cerca de tres décadas. Sus características, atributos y fundamentos [18] los posiciona dentro del núcleo de la representación en los diferentes sistemas de aprendizaje. 209

PLATAFORMAS VIRTUALES

PLATAFORMAS VIRTUALES AREA : TECNOLOGIA E INFORMATICA DOCENTE : BLANCA FLOR MORA RAMIREZ PERIODO : 3 I. HORARIA : 2H GRADO : 11 FECHA NOMBRE DEL ALUMNO(A) TEMA: PLATAFORMAS VIRTUALES LOGRO: Reconoce la importancia de la formación

Más detalles

Moodle. Pero, hay alternativas gratuitas (y opensource), tanto o más buenas, que también tenemos disponibles para crear esos entornos virtuales.

Moodle. Pero, hay alternativas gratuitas (y opensource), tanto o más buenas, que también tenemos disponibles para crear esos entornos virtuales. Moodle. Es una aplicación web de tipo Ambiente Educativo Virtual un sistema de gestión de cursos de distribución libre que ayuda a los educadores a crear comunidades de aprendizaje en línea. Este tipo

Más detalles

Los distintos navegadores para movernos por Internet

Los distintos navegadores para movernos por Internet www.solucionesenlaweb.com Los distintos navegadores para movernos por Internet Para que los usuarios puedan navegar por Internet y ver la información que más les interesa en cada momento, utilizamos los

Más detalles

Curso de Android con Java

Curso de Android con Java Todos los Derechos Reservados Global Mentoring Experiencia y Conocimiento para tu Vida 1 Este es un tiempo único para el mundo de los celulares, en particular de los Smartphones. Este tipo de dispositivos

Más detalles

Curso Tutor de Moodle

Curso Tutor de Moodle Curso Tutor de Moodle Informaciones Human Business Fonos: (02) 2698 9790 / (02) 2671 3567 E-mail: informaciones@hbusiness.cl Web: www.hbusiness.cl tip ddy Web Ap p s Marketing CURSO: Curso Tutor de Moodle

Más detalles

Internet Aula Abierta 2.0. Plataformas de aprendizaje en red. Ministerio de Educación. ITE Internet Aula Abierta 2.0.

Internet Aula Abierta 2.0. Plataformas de aprendizaje en red. Ministerio de Educación. ITE Internet Aula Abierta 2.0. Internet Aula Abierta 2.0. Plataformas de aprendizaje en red Ministerio de Educación. ITE Internet Aula Abierta 2.0. Índice Plataformas de aprendizaje en red.. 1 Conceptos generales... 3 Funcionalidades

Más detalles

Alternativas de software libre para la implementación de e-learning

Alternativas de software libre para la implementación de e-learning Alternativas de software libre para la implementación de e-learning José Efrén Marmolejo Valle Unidad Académica de Matemáticas Universidad Autónoma de Guerrero jmarmolejov@gmail.com María Sarai Jacintos

Más detalles

PLATAFORMAS DE ENSEÑANZA VIRTUAL DE LA UNIVERSIDAD DE MÁLAGA

PLATAFORMAS DE ENSEÑANZA VIRTUAL DE LA UNIVERSIDAD DE MÁLAGA PLATAFORMAS DE ENSEÑANZA VIRTUAL DE LA UNIVERSIDAD DE MÁLAGA José Sánchez Rodriguez 1, Rafael Gutiérrez Valderrama 2 1,2 Didáctica y Organización Escolar. Universidad de Málaga 1 < josesanchez@uma.es >,

Más detalles

MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales

MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales MAESCENTICS: Plataforma masiva de enseñanza virtual de las ciencias exactas y naturales Alejandro Piedrahita Ospina, MSc. Profesor de tecnologías para enseñanza Maestría en Enseñanza de las Ciencias Exactas

Más detalles

LA BIBLIOTECA DIGITAL UNO DE LOS RECURSOS MÁS UTILIZADOS EN LA EDUCACIÓN VIRTUAL

LA BIBLIOTECA DIGITAL UNO DE LOS RECURSOS MÁS UTILIZADOS EN LA EDUCACIÓN VIRTUAL Título de la ponencia: La biblioteca digital uno de los recursos más utilizados en la educación virtual Información del autor(es): Nombres y apellidos: Sandra Isabel Arango Vásquez Claudia Patricia Vásquez

Más detalles

Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING. Ruth Martínez ( ruth.martinez@emascaro.com)

Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING. Ruth Martínez ( ruth.martinez@emascaro.com) Plataformas Elearning. Recursos y funcionalidades 1 PLATAFORMAS E-LEARNING Ruth Martínez ( ruth.martinez@emascaro.com) Identificaremos los recursos que se incluyen en las plataformas y, en función de las

Más detalles

B-Learning en el salón de clases

B-Learning en el salón de clases B-Learning en el salón de clases El B-Learning... Es la abreviatura del término inglés Blended Learning, que se traduce al español como Aprendizaje mezclado. Es una combinación entre la enseñanza presencial

Más detalles

E-LEARNING OPORTUNIDAD Y CONOCIMIENTO

E-LEARNING OPORTUNIDAD Y CONOCIMIENTO E-LEARNING OPORTUNIDAD Y CONOCIMIENTO Angy Lizeth Lara Vargas Ingeniería de Sistemas CORPORACIÓN UNIFICADA NACIONAL DE EDUCACION SUPERIOR CONVERGENCIA TECNOLÓGICA BOGOTÁ 2010 pág. 1 CONTENIDO Definición

Más detalles

Estándares y especificaciones de e-learning. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez

Estándares y especificaciones de e-learning. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez Estándares y especificaciones de e-learning. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez 1. Título Estándares y especificaciones de e-learning Este curso está reconocido

Más detalles

Introducción al e-learning http://tecnologias.gio.etsit.upm.es/elearning/introduccion-al-e-learning-27.asp

Introducción al e-learning http://tecnologias.gio.etsit.upm.es/elearning/introduccion-al-e-learning-27.asp Introducción al e-learning http://tecnologias.gio.etsit.upm.es/elearning/introduccion-al-e-learning-27.asp Material recopilado por el Prof. Néstor Ojeda, M.Sc. sólo para ser usado con fines instruccionales

Más detalles

Zona Próxima ISSN: 1657-2416 jmizzuno@uninorte.edu.co Universidad del Norte Colombia

Zona Próxima ISSN: 1657-2416 jmizzuno@uninorte.edu.co Universidad del Norte Colombia Zona Próxima ISSN: 1657-2416 jmizzuno@uninorte.edu.co Universidad del Norte Colombia Ardila Muñoz, Jimmy Yordany; Ruiz Cañadulce, Edith Marcela Tres dimensiones para la evaluación de sistemas de gestión

Más detalles

Educación Continua y a Distancia. Alberto Moreno Bonett. Universidad Nacional Autónoma de México (UNAM), México

Educación Continua y a Distancia. Alberto Moreno Bonett. Universidad Nacional Autónoma de México (UNAM), México Educación Continua y a Distancia Alberto Moreno Bonett Universidad Nacional Autónoma de México (UNAM), México CUAED México D.F. Noviembre 2012 DIVISIÓN DE EDUCACIÓN CONTINUA Ø UNAM 1551 o La universidad

Más detalles

DIPLOMADO MOBILE MARKETING 2013 El primer postgrado en Comunicación y Mobile Marketing del país

DIPLOMADO MOBILE MARKETING 2013 El primer postgrado en Comunicación y Mobile Marketing del país DIPLOMADO MOBILE MARKETING 2013 El primer postgrado en Comunicación y Mobile Marketing del país PALABRAS DEL DIRECTOR El desarrollo de la tecnología, en particular de la móvil, ha generado un enorme impacto

Más detalles

DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA

DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA DESARROLLO DE CONTENIDOS A MEDIDA E-DUCATIVA 1 Adaptación y conversión Muchas empresas disponen de contenidos muy completos en formato papel, utilizados en educación presencial o bien en formación a distancia

Más detalles

T7 E-LEARNING y B-LEARNING

T7 E-LEARNING y B-LEARNING LECTURAS OBLIGATORIAS Pérez, A. (2006). Internet aplicado a la educación: aspectos técnicos y comunicativos. Las plataformas. En Cabero, J. (2006). Nuevos tecnologías aplicadas a la educación. Madrid.

Más detalles

Diplomatura en Diseño y Gestión de Aulas Digitales

Diplomatura en Diseño y Gestión de Aulas Digitales Diplomatura en Diseño y Gestión de Aulas Digitales Resumen La diplomatura en Diseño y Gestión de Aulas Digitales es un espacio de formación compuesto por diferentes módulos que pretende dar respuesta teórica

Más detalles

Jornada de Capacitación UNIVIDA

Jornada de Capacitación UNIVIDA Jornada de Capacitación UNIVIDA «Diseño y Mediación Pedagógica Virtual» Responsable: Planes TIC, Escuela para la Formación en TIC Mag. Clara Lucia Burbano González Directora de Planes TIC Asesor y capacitador

Más detalles

Guía del Participante Programa de Programa De Social Media Networker: Una Realidad para la Promoción de las Empresas en la Web

Guía del Participante Programa de Programa De Social Media Networker: Una Realidad para la Promoción de las Empresas en la Web Guía del Participante Programa de Programa De Social Media Networker: Una Realidad para la Promoción de las Empresas en la Web 1. Introducción... 3 2. Objetivos del Programa... 3 3. Características del

Más detalles

Explotación de Plataformas Virtuales en el proceso enseñanza aprendizaje en E-learning y B-learning

Explotación de Plataformas Virtuales en el proceso enseñanza aprendizaje en E-learning y B-learning 1ER. ENCUENTRO DE EXPERIENCIAS DE EDUCACIÓN Y TIC PARA EL DESARROLLO Explotación de Plataformas Virtuales en el proceso enseñanza aprendizaje en E-learning y B-learning Lic. MSc. David Leonardo Guevara

Más detalles

CAPITULO 4: E-LEARNING

CAPITULO 4: E-LEARNING CAPITULO 4: E-LEARNING Introducción Es la nueva forma de educación a distancia surgida con el desarrollo de las nuevas Tecnologías de la Información e Internet. Se basa en aprovechar la facilidad de distribución

Más detalles

INSTITUTO TECNOLOGICO SUPERIOR LICEO CRISTIANO DE GUAYAQUIL

INSTITUTO TECNOLOGICO SUPERIOR LICEO CRISTIANO DE GUAYAQUIL INSTITUTO TECNOLOGICO SUPERIOR LICEO CRISTIANO DE GUAYAQUIL "- ". PROPUESTA DE IMPLEMENTACION DE UNA PLATAFORMA VIRTUAL DE APRENDIZAJE PARA LA UNIDAD EDUCATIVA LICEO CRISTIANO DE GUAYAQUIL ELABORADO POR:

Más detalles

Diplomado en diseño de entornos virtuales de aprendizaje

Diplomado en diseño de entornos virtuales de aprendizaje Justificación: La necesidad de incorporar Tecnologías de la Información y Comunicación en los modelos educativos, se ha convertido para las Instituciones de Educación Superior, en un componente esencial

Más detalles

Plataformas virtuales

Plataformas virtuales Plataformas virtuales Índice Introducción 1 Qué es una plataforma virtual? 2 Para qué sirve una plataforma virtual? 3 Cómo se usa una plataforma virtual? 5 Tipos de plataformas virtuales 6 Conclusión

Más detalles

UNIVERSIDAD TÉCNICA DE AMBATO FACULTAD DE CIENCIAS ADMINISTRATIVAS CARRERA: ORGANIZACIÓN DE EMPRESAS MODALIDAD PRESENCIAL MÓDULO FORMATIVO.

UNIVERSIDAD TÉCNICA DE AMBATO FACULTAD DE CIENCIAS ADMINISTRATIVAS CARRERA: ORGANIZACIÓN DE EMPRESAS MODALIDAD PRESENCIAL MÓDULO FORMATIVO. UNIVERSIDAD TÉCNICA DE AMBATO FACULTAD DE CIENCIAS ADMINISTRATIVAS CARRERA: ORGANIZACIÓN DE EMPRESAS MODALIDAD PRESENCIAL MÓDULO FORMATIVO NTICs II 2do SEMESTRE PLANIFICACIÓN DOCENTE 1: Ing. Mg. Patricio

Más detalles

Joomla. Creación de sitios web con contenido dinámico

Joomla. Creación de sitios web con contenido dinámico Joomla. Creación de sitios web con contenido dinámico Autor: José Luis Bautista Tutor: José Luis Bautista 1. TÍTULO Joomla. Creación de sitios web con contenido dinámico 2. DESCRIPCIÓN Joomla es uno de

Más detalles

COMPETENCIAS TIC PARA EL DESARROLLO PROFESIONAL DOCENTE

COMPETENCIAS TIC PARA EL DESARROLLO PROFESIONAL DOCENTE COMPETENCIAS TIC PARA EL DESARROLLO PROFESIONAL DOCENTE Uno de los propósitos de la educación del siglo XXI, es la formación de personas inteligentes a nivel cognitivo, afectivo y práxico, para lo cual

Más detalles

Escuela Técnica Superior de Ingeniería Informática

Escuela Técnica Superior de Ingeniería Informática Escuela Técnica Superior de Ingeniería Informática Máster en Ingeniería Informática aplicada a la Industria, a la Ingeniería del Software y a los Sistemas y Tecnologías de la Información GUÍA DOCENTE DE

Más detalles

INTRODUCCIÓN AL E-LEARNING

INTRODUCCIÓN AL E-LEARNING INTRODUCCIÓN AL E-LEARNING AUTORÍA GEMA LÓPEZ GUERRERO TEMÁTICA EJ. COEDUCACIÓN,NNTT ETAPA EI, EP, ESO Resumen El e-learning es un sistema educativo de educación y/o a distancia donde se encuentran integrados

Más detalles

233016 SEGURIDAD EN APLICACIONES MOVILES

233016 SEGURIDAD EN APLICACIONES MOVILES 233016 SEGURIDAD EN APLICACIONES MOVILES Ing. Gabriel M. Ramírez V. PALMIRA 2015 DIRECTOR DEL CURSO Mi nombre es Gabriel Mauricio Ramírez Villegas, Ingeniero de Sistemas de la Universidad San Buenaventura

Más detalles

ASPECTOS TECNOLÓGICOS Y PEDAGOGICOS EN LA FORMACION E-LEARNING DOCUMENTO DE APOYO PARA LA IMPLEMENTACIÓN DE AULAS VIRTUALES

ASPECTOS TECNOLÓGICOS Y PEDAGOGICOS EN LA FORMACION E-LEARNING DOCUMENTO DE APOYO PARA LA IMPLEMENTACIÓN DE AULAS VIRTUALES UNIVERSIDAD DE CALDAS FACULTAD DE INGENIERIA DEPARTAMENTO DE SISTEMAS E INFORMATICA ASPECTOS TECNOLÓGICOS Y PEDAGOGICOS EN LA FORMACION E-LEARNING DOCUMENTO DE APOYO PARA LA IMPLEMENTACIÓN DE AULAS VIRTUALES

Más detalles

Simulador de Protocolos de Red a tráves de WEB

Simulador de Protocolos de Red a tráves de WEB Simulador de Protocolos de Red a tráves de WEB Propuesta de Estudio 20071608 Director Ing. Francisco Antonio Polanco Montelongo Resumen Introducción Actualmente, el desarrollo tecnológico a alcanzado niveles

Más detalles

DIPLOMADO DE DOCENCIA Y CREACIÓN DE CURSOS VIRTUALES Y A DISTANCIA

DIPLOMADO DE DOCENCIA Y CREACIÓN DE CURSOS VIRTUALES Y A DISTANCIA DIPLOMADO DE DOCENCIA Y CREACIÓN DE CURSOS VIRTUALES Y A DISTANCIA w w w. i n s t i t u t o s a l a m a n c a. c o m MÓDULO 1 - FUNDAMENTOS TEÓRICOS Y CONCEPTUALES DE AMBIENTES VIRTUALES DE APRENDIZAJE

Más detalles

MEDIOS INNOVADORES PARA LA EDUCACIÓN DOBLE TITULACIÓN TEC DE MONTERREY UNAB

MEDIOS INNOVADORES PARA LA EDUCACIÓN DOBLE TITULACIÓN TEC DE MONTERREY UNAB MAESTRÍA A EN TECNOLOGÍA A EDUCATIVA Y MEDIOS INNOVADORES PARA LA EDUCACIÓN DOBLE TITULACIÓN TEC DE MONTERREY UNAB Nombre del programa: Maestría en Tecnología Educativa y Medios innovadores para la educación.

Más detalles

La Plataforma e-learning del Servicio de Cooperación. Forinnova y Máster en Gestión de la Innovación

La Plataforma e-learning del Servicio de Cooperación. Forinnova y Máster en Gestión de la Innovación La Plataforma e-learning del Servicio de Cooperación. Forinnova y Máster en Gestión de la Innovación Lola Lozano Gascón Jefe del Departamento de Formación del ITA Reyes Zamanillo Calzada Técnico de Formación

Más detalles

FORMATO: M-01-2015 (V. 1.15) PROGRAMA ANALÍTICO DE ASIGNATURA

FORMATO: M-01-2015 (V. 1.15) PROGRAMA ANALÍTICO DE ASIGNATURA FORMATO: M-01-2015 (V. 1.15) PROGRAMA ANALÍTICO DE ASIGNATURA DATOS GENERALES ASIGNATURA: Aplicación de las TIC s CAMPO AMPLIO DEL CONOCIMIENTO: Tecnologías de la Información y la Comunicación CAMPO ESPECÍFICO

Más detalles

Creación de objetos de aprendizaje y construcción de secuencias didácticas

Creación de objetos de aprendizaje y construcción de secuencias didácticas Creación de objetos de aprendizaje y construcción de secuencias didácticas Autores y Tutores: Miguel Ángel Conde González 1. Título: Creación de objetos de aprendizaje y construcción de secuencias didácticas

Más detalles

Diseño de contenidos educativos con exe Learning

Diseño de contenidos educativos con exe Learning Diseño de contenidos educativos con exe Learning 1. Título: Diseño de contenidos educativos con exe Learning. 2. Descripción: En la sociedad actual, en la que cada vez se genera y difunde la información

Más detalles

Moodle 1.9: Producción y gestión de cursos

Moodle 1.9: Producción y gestión de cursos Moodle 1.9: Producción y gestión de cursos 1. Título: Moodle 1.9: Producción y gestión de cursos 2. Descripción: Gracias al éxito obtenido durante las 12 ediciones del curso Montaje y gestión de cursos

Más detalles

ESPECIFICACIÓN DE REQUERIMIENTOS DE APLICACIÓN WEB. Proyecto: Reifer. Revisión: 1.0 28/01/13

ESPECIFICACIÓN DE REQUERIMIENTOS DE APLICACIÓN WEB. Proyecto: Reifer. Revisión: 1.0 28/01/13 ESPECIFICACIÓN DE REQUERIMIENTOS DE APLICACIÓN WEB Proyecto: Reifer Revisión: 1.0 28/01/13 1 CONTENIDOS Introducción... 3 Propósito del documento... 3 Necesidad comercial... 3 Objetivos de la empresa...

Más detalles

Creación de objetos de aprendizaje y construcción de secuencias didácticas.

Creación de objetos de aprendizaje y construcción de secuencias didácticas. Creación de objetos de aprendizaje y construcción de secuencias didácticas. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez 1. Título Creación de objetos de aprendizaje

Más detalles

Proyecto LearnIT PL/08/LLP-LdV/TOI/140001

Proyecto LearnIT PL/08/LLP-LdV/TOI/140001 Proyecto LearnIT PL/08/LLP-LdV/TOI/140001 Newsletter Nº 2 Abril 2009 Querido lector/a, Nos complace presentarle la segunda newsletter del proyecto LearnIT. En este número trataremos sobre los Learning

Más detalles

PASEO Y VIDEO VIRTUAL DE LA HACIENDA DE SANTA MARIA REGLA HUASCA DE OCAMPO, HIDALGO

PASEO Y VIDEO VIRTUAL DE LA HACIENDA DE SANTA MARIA REGLA HUASCA DE OCAMPO, HIDALGO PASEO Y VIDEO VIRTUAL DE LA HACIENDA DE SANTA MARIA REGLA HUASCA DE OCAMPO, HIDALGO Ma. De Jesús Gutiérrez Sánchez 1, Arturo Ocampo López 2 Gonzalo Alberto Torres Samperio 3 Universidad Autónoma del Estado

Más detalles

David Vargas B16844 II Ciclo 2013

David Vargas B16844 II Ciclo 2013 ESCUELA DE CIENCIAS DE LA COMPUTACION E INFORMATICA SISTEMAS OPERATIVOS David Vargas B16844 II Ciclo 2013 1 Tabla de contenido I. Introducción... 2 II. Reseña... 3 III. Principios de diseño... 4 IV. Aplicaciones

Más detalles

Proyecto UniMóvil: una aplicación móvil para Universidades

Proyecto UniMóvil: una aplicación móvil para Universidades Proyecto UniMóvil: una aplicación móvil para Universidades Diego de la Riva 1, Carlos Di Cicco 2, Facundo Montero 3, Sebastián Sottile 4 {delariva,carlosdicicco,facundomontero,sebastiansottile}@unnoba.edu.ar

Más detalles

Visualización y modelado de elementos geográficos en dispositivos móviles. Capítulo 5: Aplicaciones cliente

Visualización y modelado de elementos geográficos en dispositivos móviles. Capítulo 5: Aplicaciones cliente Capítulo 5: Aplicaciones cliente 46 5.1 La aplicación cliente en la Pocket PC La aplicación desarrollada para el cliente en un dispositivo móvil como corresponde a la Pocket PC necesita una capa muy delgada

Más detalles

UNIDAD DE DESARROLLO Y PERFECCIONAMIENTO DOCENTE

UNIDAD DE DESARROLLO Y PERFECCIONAMIENTO DOCENTE UNIDAD DE DESARROLLO Y PERFECCIONAMIENTO DOCENTE VICERRECTORÍA DE ASUNTOS ACADEMICOS DIPLOMA EN DOCENCIA UNIVERSITARIA CON USO DE TIC S Este Diploma en la actualidad se propone en base a requerimientos

Más detalles

GUÍA PLATAFORMA VIRTUAL ÁGORA

GUÍA PLATAFORMA VIRTUAL ÁGORA GUÍA PLATAFORMA VIRTUAL ÁGORA G U I A D E P L A T A F O R M A V I R T U A L 1 ROL DE ESTUDIANTE PRESENTACIÓN La Universidad Americana (UAM) ha implementado el desarrollo e implementación de la Plataforma

Más detalles

fortaltclm/enlo dalllderaz o da las mujeres.. Proyecto para al Muler vos podes TERMINOS DE REFERENCIA

fortaltclm/enlo dalllderaz o da las mujeres.. Proyecto para al Muler vos podes TERMINOS DE REFERENCIA aecid ~ fortaltclm/enlo dalllderaz o da las mujeres.. Proyecto para al Muler vos podes TERMINOS DE REFERENCIA Instituto Nacional de las Mujeres Facultad Latinoamericana de Ciencias Sociales- Costa Rica

Más detalles

Detalle de nuestra Oferta de Servicios

Detalle de nuestra Oferta de Servicios Detalle de nuestra Oferta de Servicios Oferta de Servicios 2007 La experiencia acumulada por el equipo de AulaGlobal nos permite ofrecer una más amplia gama de servicios relacionados con la capacitación

Más detalles

Analítica web con Google Analytics

Analítica web con Google Analytics Analítica web con Google Analytics 1. Título Analítica web con Google Analytics 2. Descripción: La analítica web nos permite estudiar el comportamiento de los usuarios dentro de nuestro sitio web. De esta

Más detalles

Especialista en Creación de Portales Web con Joomla 3.3

Especialista en Creación de Portales Web con Joomla 3.3 Especialista en Creación de Portales Web con Joomla 3.3 TITULACIÓN DE FORMACIÓN CONTINUA BONIFICADA EXPEDIDA POR EL INSTITUTO EUROPEO DE ESTUDIOS EMPRESARIALES Especialista en Creación de Portales Web

Más detalles

Educación a distancia usando Moodle,

Educación a distancia usando Moodle, Educación a distancia usando Moodle, una alternativa bajo Software Libre Ing. Alejandro Escalante 24 Noviembre 2004 Si es profesor, probablemente ha oído hablar mucho sobre... Educación del siglo XXI Aprendizaje

Más detalles

SITNA EN TU MÓVIL. entornos. de navarra

SITNA EN TU MÓVIL. entornos. de navarra entornos de navarra REPORTAJE SITNA EN TU MÓVIL Esta aplicación web pretende acceder a los datos que ofrece el SITNA, optimizada para su utilización en los dispositivos móviles ANDROID. El objetivo que

Más detalles

Introducción... 7. Presentación y objetivos... 12

Introducción... 7. Presentación y objetivos... 12 ÍNDICE SISTEMÁTICO PÁGINA Introducción... 7 Unidad didáctica 1. Sistemas de gestión de contenidos, principales características y funcionalidades de los gestores de contenidos... 11 Presentación y objetivos...

Más detalles

Introduccion a la plataforma Android

Introduccion a la plataforma Android Introduccion a la plataforma Android Felipe A. Besoaín Pino fbesoain@gmail.com 22-05-2009 Resumen Las características y usos que nos proveen los dispositivos móviles en los últimos años, han provocado

Más detalles

ESTÁNDARES Y ESPECIFICACIONES DE E-LEARNING

ESTÁNDARES Y ESPECIFICACIONES DE E-LEARNING ESTÁNDARES Y ESPECIFICACIONES DE E-LEARNING Autor/Tutor: Miguel Ángel Conde González 1. Título: Estándares y especificaciones de e-learning 2. Descripción: Las aplicaciones educativas han evolucionado

Más detalles

Proyecto educativo. Lineamientos Pedagógicos

Proyecto educativo. Lineamientos Pedagógicos Proyecto educativo Lineamientos Pedagógicos Cuando se habla de educación por Internet, o de educación virtual siendo muy simplistas y sin entrar a definir en profundidad lo que esto puede significar, se

Más detalles

Dirección de Ciencias, Tecnologías y Medios Educativos

Dirección de Ciencias, Tecnologías y Medios Educativos Dirección de Ciencias, Tecnologías y Medios Educativos La denominada sociedad de la información caracterizada por las posibilidades que tienen personas y comunidades enteras de cualquier lugar del mundo

Más detalles

KeyWord Virtual Academy

KeyWord Virtual Academy KeyWord Virtual Academy Es una aplicación del tipo LMS (Learning Management System) residente en un servidor aplicaciones WEB, susceptible de desarrollar acciones formativas basadas en e-learning, B-Learning

Más detalles

Museos: Nuevos medios, nuevos soportes y web 2.0

Museos: Nuevos medios, nuevos soportes y web 2.0 Museos: Nuevos medios, nuevos soportes y web 2.0 1. Título: Museos: Nuevos medios, nuevos soportes y web 2.0 2. Descripción: Las Nuevas Tecnologías de la Información y la Comunicación forman ya parte de

Más detalles

Guía Docente. SISTEMAS INFORMÁTICOS I 1º curso TÍTULO SUPERIOR EN DIRECCIÓN DE MARKETING Y GESTIÓN COMERCIAL (TSDMC) Curso 2014 /2015

Guía Docente. SISTEMAS INFORMÁTICOS I 1º curso TÍTULO SUPERIOR EN DIRECCIÓN DE MARKETING Y GESTIÓN COMERCIAL (TSDMC) Curso 2014 /2015 Guía Docente 1º curso TÍTULO SUPERIOR EN DIRECCIÓN DE MARKETING Y (TSDMC) Curso 2014 /2015 Campus: Profesor/es: Periodo de impartición: Curso: Carácter: Lengua en la que se imparte: Pozuelo (Madrid) Valencia

Más detalles

www.bvbusiness-school.com

www.bvbusiness-school.com AVANZAMOS A TRAVÉS DEL CONOCIMIENTO www.bvbusiness-school.com CREACIÓN DE CONTENIDOS EN E-LEARNING Actualmente la gran mayoría de los contenidos formativos se desarrollan para ser visualizados en un entorno

Más detalles

INNOVACIÓN PEDAGÓGICA. DIPLOMA SUPERIOR EN Implementación de proyectos de e-learning

INNOVACIÓN PEDAGÓGICA. DIPLOMA SUPERIOR EN Implementación de proyectos de e-learning INNOVACIÓN PEDAGÓGICA DIPLOMA SUPERIOR EN Implementación de proyectos de e-learning FUNDAMENTOS E l presente Diploma tiene como propósito desarrollar competencias, en docentes de Educación Superior, para

Más detalles

MAESTRÍA EN EDUCACIÓN

MAESTRÍA EN EDUCACIÓN ACREDITACIÓN INSTITUCIONAL DE ALTA CALIDAD Universidad Autónoma de Bucaramanga MAESTRÍA EN EDUCACIÓN MAESTRÍA EN EDUCACIÓN INFORMES: Facultad de Educación Adriana María Cadena León Directora Maestría en

Más detalles

Quantum Consultores Servicios E-Learning

Quantum Consultores Servicios E-Learning Quantum Consultores Servicios E-Learning 1 Quantum Consultores: Quiénes Somos Somos un equipo de profesionales especializados en el ámbito de los Recursos Humanos y la Educación. En el área de Recursos

Más detalles

~ ~ Conocimientos de Windows 7, 8, MS-Office e Internet.

~ ~ Conocimientos de Windows 7, 8, MS-Office e Internet. El E-Learning (conocido como Aprendizaje Electrónico o Educación Virtual) ha llevado a que las diferentes instituciones que ofertan programas académicos en la modalidad de educación a distancia y virtual,

Más detalles

1.- DATOS DE LA ASIGNATURA. Nombre de la asignatura: Desarrollo de aplicaciones para. dispositivos móviles. Carrera:

1.- DATOS DE LA ASIGNATURA. Nombre de la asignatura: Desarrollo de aplicaciones para. dispositivos móviles. Carrera: 1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: SATCA 1 Desarrollo de aplicaciones para dispositivos móviles Ingeniería en Sistemas Computacionales TIA-1305 0-4 4 2.-

Más detalles

Administración de Bases de Datos MySQL. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez

Administración de Bases de Datos MySQL. Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez Administración de Bases de Datos MySQL Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez 1. Título: Administración de Bases de Datos MySQL 2. Descripción: Este curso está

Más detalles

Mejorando las comunicaciones con los estudiantes de la Universidad Austral de Chile con TI

Mejorando las comunicaciones con los estudiantes de la Universidad Austral de Chile con TI Cuarta Conferencia de Directores de Tecnología de Información, TICAL2014 Soluciones TIC para la Gestión, Cancún, del 26 al 28 de mayo de 2014 Mejorando las comunicaciones con los estudiantes de la Universidad

Más detalles

Portal de Cursos en Línea para la Carrera de TIC-SI

Portal de Cursos en Línea para la Carrera de TIC-SI Portal de Cursos en Línea para la Carrera de TIC-SI Juan Mexica Rivera, Esmeralda Contreras Trejo Universidad Tecnológica de Nezahualcóyotl Cd. Nezahualcóyotl, Estado de México, C.P. 57000. Tel 55 5169700

Más detalles

GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES

GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES Revista de investigación Editada por Área de Innovación y Desarrollo, S.L. Envío: 12-07-2013 Aceptación: 4-08-2013 Publicación: 30-09-2013 GENERADOR DE APLICACIONES J2ME PARA DISPOSITIVOS MÓVILES J2ME

Más detalles

REALIDAD AUMENTADA Y SUS APLICACIONES. Material para entrevista Dr. Manuel Dávila. Ingeniero CARLOS ENRIQUE ORTIZ RANGEL

REALIDAD AUMENTADA Y SUS APLICACIONES. Material para entrevista Dr. Manuel Dávila. Ingeniero CARLOS ENRIQUE ORTIZ RANGEL REALIDAD AUMENTADA Y SUS APLICACIONES Material para entrevista Dr. Manuel Dávila Ingeniero CARLOS ENRIQUE ORTIZ RANGEL Octubre de 2012 1.- INTRODUCCION A LA REALIDAD AUMENTADA 1.1.- Contexto Pocas tecnologías

Más detalles

UNIBOYACÁ VIRTUAL Una experiencia significativa en educación virtual

UNIBOYACÁ VIRTUAL Una experiencia significativa en educación virtual UNIBOYACÁ VIRTUAL Una experiencia significativa en educación virtual CLARA PATRICIA AVELLA IBÁÑEZ Directora División de Acreditación, Universidad de Boyacá, Colombia 1. Introducción Este artículo presenta

Más detalles

Curso de Acceso a la Universidad para Mayores de 25 años (CAM-25)

Curso de Acceso a la Universidad para Mayores de 25 años (CAM-25) Curso de Acceso a la Universidad para Mayores de 25 años (CAM-25) GUÍA DOCENTE DE LA ASIGNATURA: Introducción a la Informática Curso Académico 2011-2012 1 1. Datos Descriptivos de la Asignatura Asignatura:

Más detalles

Curso de Analítica web con Google Analytics para emprendedores en la enseñanza del español y gestión cultural Centro Internacional de Tecnologías

Curso de Analítica web con Google Analytics para emprendedores en la enseñanza del español y gestión cultural Centro Internacional de Tecnologías Curso de Analítica web con Google Analytics para emprendedores en la enseñanza del español y gestión cultural Centro Internacional de Tecnologías Avanzadas Fundación Germán Sánchez Ruipérez 1. Título:

Más detalles

Mejora en la compartición de recursos basada en Cloud Computing para el Grado en Informática en Sistemas de Información (Proyecto ID2012/099)

Mejora en la compartición de recursos basada en Cloud Computing para el Grado en Informática en Sistemas de Información (Proyecto ID2012/099) Memoria del Proyecto de Innovación Docente Titulado: Mejora en la compartición de recursos basada en Cloud Computing para el Grado en Informática en Sistemas de Información (Proyecto ID2012/099) Profesor

Más detalles

Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX)

Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX) Desarrollo de aplicaciones web y móviles usables, accesibles, sociables: una forma de potenciar la Experiencia del Usuario (UX) Dra. Eleonora Acosta y MSc. Jossie Zambrano Asociación Colombiana de Ingenieros

Más detalles

PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES. Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa

PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES. Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa PRODUCCIÓN DE CONTENIDOS EDUCATIVOS PARA DISPOSITIVOS MÓVILES Oscar Boude Figueredo Oscar.boude@unisabana.edu.co Maestría en Informática educativa Agenda Conceptos Iniciales Características del M-learning

Más detalles

Documento de visión: CRM Cloud Colombia

Documento de visión: CRM Cloud Colombia Documento de visión: CRM Cloud Colombia Documento de visión de CRM Cloud Colombia Propósito La intención de este documento es cumplir con los objetivos específicos de la fase metodológica de Inicio del

Más detalles

Plan de curso Sílabo INFORMATICA Y CONVERGENCIA TECNOLOGICA 2 32 64. Del nivel Asignaturas pre-requisitos Código. Ninguna

Plan de curso Sílabo INFORMATICA Y CONVERGENCIA TECNOLOGICA 2 32 64. Del nivel Asignaturas pre-requisitos Código. Ninguna Plan de curso Sílabo Asignatura Nro. Créditos Código Horas de trabajo directo con el docente Horas de trabajo autónomo del estudiante INFORMATICA Y CONVERGENCIA TECNOLOGICA 2 32 64 Del nivel Asignaturas

Más detalles

La Empresa NOS MOVEMOS CONTIGO

La Empresa NOS MOVEMOS CONTIGO La Empresa NOS MOVEMOS CONTIGO Alea Technology, empresa de base tecnológica, reconocida con un premio Spin-Off de la universidad de Málaga, centra su actividad en el desarrollo de software para dispositivos

Más detalles

1. Título: 2. Descripción: 3. Objetivos: 4. Profesorado Mateo Pescador Mulas. Tus presentaciones a la última con Prezi

1. Título: 2. Descripción: 3. Objetivos: 4. Profesorado Mateo Pescador Mulas. Tus presentaciones a la última con Prezi 1. Título: Tus presentaciones a la última con Prezi 2. Descripción: El mundo de las presentaciones ha cambiado, y una de las principales razones es la herramienta virtual Prezi. Creativa, resolutiva, de

Más detalles

Tus presentaciones a la última con Prezi

Tus presentaciones a la última con Prezi Tus presentaciones a la última con Prezi Autor y Tutor: Camino López García 1. Título: Tus presentaciones a la última con Prezi 2. Descripción: El mundo de las presentaciones ha cambiado, y una de las

Más detalles

Título: Propuesta de una Plataforma Virtual de Aprendizaje para la ejecución de la Capacitación Virtual en el Polo Turístico.

Título: Propuesta de una Plataforma Virtual de Aprendizaje para la ejecución de la Capacitación Virtual en el Polo Turístico. Título: Propuesta de una Plataforma Virtual de Aprendizaje para la ejecución de la Capacitación Virtual en el Polo Turístico. Autores: Ing. Lenz Mesa Castillo MSc. Yordanka Barrios González. MSc. Yalepsis

Más detalles

PLATAFORMA EDUCATIVA VIRTUAL ÁREA DE CIENCIAS Y TECNOLOGÍA

PLATAFORMA EDUCATIVA VIRTUAL ÁREA DE CIENCIAS Y TECNOLOGÍA PLATAFORMA EDUCATIVA VIRTUAL ÁREA DE CIENCIAS Y TECNOLOGÍA Plataforma Educativa Virtual ACyT Ing. Beto Orlando Calle Quispe Cel.: 67668933 Email: bto.orlando@gmail.com Sitio Web: www.uap-acyt.edu.bo INDICE

Más detalles

V Jornadas Pedagógicas en Tecnología e Innovación Educativa LABORATORIO VIRTUAL PARA LA SIMULACIÓN DE LOS COMPONENTES INTERNOS DEL COMPUTADOR

V Jornadas Pedagógicas en Tecnología e Innovación Educativa LABORATORIO VIRTUAL PARA LA SIMULACIÓN DE LOS COMPONENTES INTERNOS DEL COMPUTADOR V Jornadas Pedagógicas en Tecnología e Innovación Educativa LABORATORIO VIRTUAL PARA LA SIMULACIÓN DE LOS COMPONENTES INTERNOS DEL COMPUTADOR Autores Verónica Merino-Narváez Gabriela Narváez-Chamba Carrera

Más detalles

Aprovechamiento del Hardware de los Dispositivos Móviles para la Construcción de Nuevas Aplicaciones. Contexto

Aprovechamiento del Hardware de los Dispositivos Móviles para la Construcción de Nuevas Aplicaciones. Contexto Aprovechamiento del Hardware de los Dispositivos Móviles para la Construcción de Nuevas Aplicaciones Rocío Andrea Rodríguez 1,2, Pablo Martín Vera 1,2, María Roxana Martínez 1, Luís Verbel de La Cruz 1

Más detalles

Novedades de Microsoft Dynamics 2011

Novedades de Microsoft Dynamics 2011 Novedades de Microsoft Dynamics 2011 Microsoft Dynamics CRM 2011 ofrece características nuevas y mejoradas que le ayudarán a aumentar la eficacia y la productividad de su organización. Interfaz de Microsoft

Más detalles

Evaluación Plataforma Educativa. Por. Ángela Maria Valderrama David Herney Bernal. Universidad de Antioquia. Julio - Octubre de 2004

Evaluación Plataforma Educativa. Por. Ángela Maria Valderrama David Herney Bernal. Universidad de Antioquia. Julio - Octubre de 2004 Evaluación Plataforma Educativa Por Ángela Maria Valderrama David Herney Bernal Julio - Octubre de 2004 Página 1 de 24 Introducción Somos conscientes de que parte de las exigencias de la sociedad actual

Más detalles

Guía Docente 2015/16

Guía Docente 2015/16 Guía Docente 2015/16 Desarrollo de Aplicaciones para Dispositivos Móviles Application Development for Mobile Devices Grado en Ingeniería en Sistemas de Telecomunicación Presencial 04/11/2015 11:59 Universidad

Más detalles

Presentación 10 ENTORNOS PERSONALES DE APRENDIZAJE: CLAVES PARA EL ECOSISTEMA EDUCATIVO EN RED

Presentación 10 ENTORNOS PERSONALES DE APRENDIZAJE: CLAVES PARA EL ECOSISTEMA EDUCATIVO EN RED Presentación 10 Nuevo material en la RED de la Comunidad de Educación Virtual Eventos Videos Incluyo un evento: 10º congreso iberoamericano de Informática Educativa Especial para el 31 de julio, 1, y 2

Más detalles

Incorporación de la Web 2.0 en el aula

Incorporación de la Web 2.0 en el aula Incorporación de la Web 2.0 en el aula Autores y Tutores: Juan Carlos Gacitúa Araneda y David R. Sáez Ávila 1. Título: Incorporación de la Web 2.0 en el aula 2. Descripción: Las TIC en el aula son una

Más detalles