FACULTAD DE INGENIERÍAS

Tamaño: px
Comenzar la demostración a partir de la página:

Download "FACULTAD DE INGENIERÍAS"

Transcripción

1 REVISTA INGENIERÍAS USBMed ISSN: FACULTAD DE INGENIERÍAS UNIVERSIDAD DE SAN BUENAVENTURA MEDELLÍN Volumen 1, Número 1 Julio-Diciembre 2010 MEDELLÍN ANTIOQUIA 2010

2 INGENIERÍAS USBMed ISSN: DIRECTORA Marta Cecilia Meza Peláez EDITOR Edgar Serna Montoya COMITÉ EDITORIAL Darío E. Soto Duran Tecnológico de Antioquia Leonel Velásquez Torres USB Medellín Fabio A. Vargas Agudelo Tecnológico de Antioquia Diego M. Murillo G. USB Medellín Ricardo de J. Botero Tabares Tecnológico de Antioquia Jeniffer V. Torres Romero USB Medellín Claudia E. Durango Vanegas USB Medellín Gustavo A. Acosta Amaya Politécnico Jaime Isaza Cadavid Carlos A. Castro Castro USB Medellín Juan D. Lemos Duque Universidad de Antioquia Helena Pérez Garcés USB Medellín Hernán de J. Salazar Escobar USB Medellín Beatriz L. Gómez Gómez USB Medellín Andrés M. Cárdenas Torres USB Medellín Gustavo A. Meneses Benavides USB Medellín Germán M. Valencia Hernández USB Medellín Carlos A. Jaque Delgado USB Medellín COMITÉ CIENTÍFICO Jesús A. Anaya Acevedo Universidad de Medellín Jovani A. Jiménez Builes UNAL Medellín Carlos E. Murillo Sánchez Cornell University USA Ever A. Velásquez Sierra USB Medellín Juan R. Aguilar Albornoz Universidad Austral de Chile Giovani Orozco A. USB Medellín Luis A. Muñoz ITM Medellín Rudy Cepeda Gómez University of Connecticut USA Isabel C. Puerta L. USB Medellín Diego A. Gutiérrez Isaza ITM Medellín Jesús E. Londoño Salazar Universidad Católica del Norte Cristina López González USB Medellín Sergio H. Lopera Castro UNAL Medellín Luis A. Tafur Jiménez University of Southampton UK Alher M. Hernández Valdivieso Universidad de Antioquia FACULTAD DE INGENIERÍAS UNIVERSIDAD DE SAN BUENAVENTURA MEDELLÍN Campus Universitario: Cll Barrio Salento, Bello. Sede Centro: Cra. 56C San Benito, Medellín. Teléfono: A.A.: 5222 / 7370 revista.ingenieria@usbmed.edu.co ingenieriasusbmed@gmail.com DERECHOS Creative Commons Oppen Journal Los autores son responsables de los contenidos y opiniones La Revista se reserva el derecho de edición, publicación, distribución y divulgación

3 CONTENIDO Editorial. 4 Cartas al editor. 5 J. C. Chandy. Desafíos en el diseño de sistemas cyber-físicos (Challenges in the design of cyberphysical systems) B. Aebischeri. Hacia la eficiencia energética en la computación (Towards energy efficiency in computing) J. Wangong y P. Daniels. Análisis a la eficiencia de las fuentes de energía renovable (Efficiency analysis of the renewable energy sources) J. Gallego C., V. Paeres R. y B. L. Gómez. Documentación e implementación de un sistema de seguridad industrial y salud ocupacional: una necesidad en las empresas colombianas (Documentation and implementation of an occupational health and industrial safety system: a necessity in the colombian companies) W. G. Monsalve, H. A. Muñoz, D. A. Álvarez, S. F. Ardila y A. M. Cárdenas T. Control de estabilidad de un robot por medio de señales ultrasónicas (Control stability of robot by means ultrasonic signals) D. Herrera A. y H. A. Carvajal C. Implementación de una red Neuronal para la detección de intrusiones en una red TCP/IP (Implementation of a Neural Network for intrusion detection in a TCP/IP network) A. F. Pardo V. y S. Lopera G. Métodos de análisis para preamplificadores de audio (Analysis methods for audio preamplifiers) G. A. Meneses B., B. A. Mendoza, M. J. Correa y Y. A. Ocampo. Laboratorio virtual para la enseñanza de instrumentación electrónica (Virtual laboratory for the teaching of electronic instrumentation) J. Rendón, J. R. Gómez, A. F. Pardo, R. A. Monsalve y D. M. Murillo G. Índices de ruido urbano en el día sin carro en la ciudad de Medellín (Urban noise indices in the day without car in the Medellin city)

4 EDITORIAL Estimados lectores, les presentamos el primer número de la Revista Ingenierías USBMed cuya misión fundamental será identificar, mediante una visión holística, los elementos que constituyen las fortalezas reconocidas en el desempeño de los ingenieros, aplicando un enfoque sistémico al abordar las diversas situaciones de la actividad investigativa de su quehacer cotidiano, y ponerlos en conocimiento de la comunidad académica y científica mediante una amplia difusión. Con este primer número, un esfuerzo mancomunado de la comunidad académica adscrita a la Facultad de Ingenierías de la Universidad de San Buenaventura Medellín, estamos haciendo el lanzamiento oficial de la Revista. Desde hace muchos años, el área de las ingenierías es un atractivo campo de investigación que se encuentra en continuo crecimiento, por esto estimamos que la comunidad necesita cada vez más espacios para difundir los resultados de sus procesos investigativos y la producción intelectual que a diario origina. La Revista Ingenierías USBMed Ing. USBMed tiene como objetivo responder a esa necesidad y convertirse en uno de los principales medios, nacionales e internacionales, para la difusión de trabajos relacionados con todas las áreas de la ingeniería. Por más de dos décadas la ingeniería en la Universidad de San Buenaventura Medellín ha acompañado la evolución nacional e internacional de sus especialidades y ha entregado al país profesionales altamente calificados, a la vez que realizado procesos intelectuales e investigativos de gran impacto en la comunidad académica. Como resultado, la Revista será el canal a través del cual se difundan estas actividades, expresadas y representadas a través de los artículos que se acepten para publicación. Además, de acuerdo con los nuevos tiempos y las necesidades ambientales, Ingenierías USBMed nace directamente en versión digital, la cual estará disponible en un sitio web de fácil acceso y consulta. De esta manera, aprovechamos las inmensas posibilidades que ofrece la Internet para difundir y aproximar al lector los contenidos de los trabajos que en ella se publiquen de forma rápida y efectiva. La Revista es el resultado del esfuerzo de un grupo de personas vinculadas a la Facultad de Ingenierías y se editará y publicará semestralmente; tendrá carácter openn access y estará disponible en línea. Estamos convencidos de que no es la primera revista que se edita en este ámbito, pero queremos ser los primeros en visibilidad, cobertura temática y aceptabilidad en la comunidad académica nacional e internacional. Al ser una Revista arbitrada, Ingenierías USBMed se diseña y estructura respetando la normatividad nacional e internacional. Existen lineamientos que direccionan este tipo de publicaciones, como las políticas editoriales aprobadas por la Junta Directiva del Consejo de Editores Científicos Council of Science Editors CSE, las emitidas por IEE y ACM, y en Colombia las de Publindex. Todos estos lineamientos serán respetados en la Revista con el objetivo de lograr el reconocimiento, a corto plazo, en las bases de datos e índices en el mundo, con lo que se ratificará la calidad de la publicación y su interés por la difusión del conocimiento. Los comités editorial y científico, lo mismo que el grupo de pares evaluadores, están conformados por profesionales de diversos ámbitos de la ingeniería, de recorrido y producción científica reconocidos internacionalmente. La ética e imparcialidad que hace parte de los procesos de selección, evaluación y edición de los artículos para cada número, es una responsabilidad que hace parte de nuestra labor cotidiana. Los trabajos recibidos recorrerán un proceso estricto en el que, por lo menos, dos pares evaluadores aplicarán un formato para evaluar la calidad y pertinencia del aporte, y en un lapso de dos a tres meses se informará al autor(es) de su aceptación, los cambios solicitados o su negación. Les damos una cordial bienvenida a esta Revista que esperamos contribuya a la expresión del campo de la ingeniería en el país y el mundo. Bienvenidos. Edgar Serna Montoya Editor 4

5 CARTAS AL EDITOR.Deseo también que plantes una semilla, por más minúscula que sea, y la acompañes en su crecimiento, para que descubras de cuántas vidas está hecho un árbol Victor Hugo Con orgullo y complacencia quiero presentar a la comunidad académica en general, y a la comunidad inquieta en los temas de ingeniería y tecnología en particular, el gran esfuerzo en que se ha empeñado la Facultad de Ingenierías de la Universidad de San Buenaventura Medellín este último año: Consolidar una revista virtual que sirva de espacio para dar a conocer las inquietudes, trabajos y estudios desarrollados por los miembros propios y extendidos de esta comunidad bonaventuriana. Es de resaltar, en forma especial, la contribución de colaboradores extranjeros, quienes con su visión externa de los temas nacionales y mundiales aportan a ampliar nuestro espectro de trabajo. Agradeciendo a todos: editores, escritores, revisores, pares y directivos de la institución por su contribución en este logro, pongo a su disposición estas páginas. Marta Cecilia Meza Peláez Decana Facultad de Ingenierías Universidad de San Buenaventura Medellín ********** Apreciado Editor. Es para la academia de la Universidad de San Buenaventura seccional Medellín motivo de especial alegría la publicación de la edición digital de la Revista de la Facultad de Ingenierías. El conocimiento sólo se valida cuando se pone a disposición de la comunidad científica y, en un proceso de sano debate, se revisa por parte de pares para consolidarlo o rebatirlo; en ambas situaciones el conocimiento habrá crecido y la comunidad académica habrá ganado. Adelante con este importante logro de la Facultad de Ingenierías, que cada día consolida su proceso de investigación en cumplimiento de la función que la sociedad le ha encomendado. Cordial saludo, Giovani Orozco Arbeláez. Vicerrector Académico Universidad de San Buenaventura Medellín ********** Sincerely. Each time an institution publishes a journal, a source of pride for the international scientific community. Allow me on behalf of the community, give a welcome to the Journal Ingenierías USBMed. I hope, like all scientists and engineers worldwide, who endure their publication and each issue than the previous one, as his articles and in international coverage. Franchesca Tiglioli H. Filósofa, sicóloga y física Verona, Italia. ********** 5

6 CHALLENGES IN THE DESIGN OF CYBER-PHYSICAL SYSTEMS DESAFÍOS EN EL DISEÑO DE SISTEMAS CYBER-FÍSICOS John C. Chandy Connecticut University (Tipo de Artículo: REFLEXIÓN. Recibido el 20/09/2010. Aprobado el 10/11/2010) Abstract. Cyber-physical systems CPS is a process that integrates computation with physical processes. Embedded computers, network monitoring and control of physical processes, usually have feedback loops where physical processes affect computations and vice versa. This paper discusses the challenges in designing these systems and raises the question of whether computers and existing network technologies provide an adequate basis for them. The conclusion is that to improve the design processes of these systems will not be enough to raise the level of abstraction, or verify, formally or not, the designs based on today's abstractions. The social and economic potential of the CPS is much higher than hitherto thought, throughout the world are investing heavily to develop this technology, but the challenges are considerable. To realize the full potential of CPS will have to reconstruct the processes of abstraction and computer networks, and processes must be open in the middle of the principles of physical dynamics and computation. Keywords. Abstraction, Computer Science, cyberphysical, software engineering, synchronization. Resumen. Los sistemas cyber-físicos Cyber-Physical Systems CPS es un proceso que integra la computación con los procesos físicos. Los computadores embebidos, el monitoreo de redes y el control de procesos físicos, usualmente tienen ciclos de retroalimentación en los que los procesos físicos afectan los cálculos, y viceversa. En este artículo se examinan los desafíos en el diseño de estos sistemas, y se plantea la cuestión de si la informática y las tecnologías de redes actuales proporcionan una base adecuada para ellos. La conclusión es que para mejorar los procesos de diseño de estos sistemas no será suficiente con elevar el nivel de abstracción o verificar, formalmente o no, los diseños en los que se basan las abstracciones de hoy. El potencial social y económico de los CPS es mucho mayor de lo que hasta el momento se ha pensado; en todo el mundo se están realizando grandes inversiones para desarrollar esta tecnología, pero los retos son considerables. Para aprovechar todo el potencial de los CPS se tendrán que reconstruir los procesos de las abstracciones informáticas y de las redes, y los procesos se deberán acoger en pleno a los principios de las dinámicas físicas y de la computación. Palabras clave: Abstracción, Ciencias Computacionales, cyber-físico, ingeniería de software, sincronización. 1. INTRODUCCIÓN Los sistemas cyber-físicos es un proceso que integra la computación con los procesos físicos. Los computadores embebidos, el monitoreo de redes y el control de procesos físicos, usualmente tienen ciclos de retroalimentación en los que los procesos físicos afectan los cálculos y viceversa. En el mundo físico, el paso del tiempo es inexorable y la concurrencia es intrínseca. Ninguna de estas propiedades las tienen en cuenta las actuales abstracciones de la informática y de las redes. Podría decirse que las aplicaciones de los CPS poseen el potencial de empequeñecer la revolución de las IT del siglo XX. Estos sistemas incluyen: dispositivos médicos altamente confiables, sistemas de vida asistida, sistemas avanzados de control de tráfico, control de procesos, conservación de energía, control medioambiental, aeronáutica, instrumentación, control de infraestructuras críticas por ejemplo, energía eléctrica, recursos hídricos y sistemas de comunicaciones, robótica distribuida telepresencia, telemedicina, sistemas de defensa, manufactura, y estructuras inteligentes. Con todo esto es fácil imaginar nuevas aplicaciones para ellos, como la generación de energía micro-distribuida acoplada a la red eléctrica, donde cuestiones como sincronización de tiempo y seguridad son fundamentales. Los sistemas de transporte podrían beneficiarse considerablemente de una mejor inteligencia embebida en los automóviles, lo que podría mejorar su seguridad y eficiencia. Una red de vehículos autónomos podría mejorar drásticamente la eficacia de las fuerzas armadas y podría hacer sustancialmente más eficientes las técnicas de recuperación de desastres. Las redes de sistemas de control de edificios como la climatización y la iluminación podría mejorar significativamente su eficiencia energética y la variabilidad de la demanda, reduciendo nuestra dependencia de los combustibles fósiles y por tanto las emisiones de gases de efecto invernadero. En las comunicaciones, la radio cognitiva podrían beneficiarse enormemente de un consenso distribuido alrededor del ancho de banda disponible y de las tecnologías de control distribuido. Las redes financieras podrían cambiar radicalmente por la sincronización del tiempo. Los sistemas de servicios a gran escala aprovecharían la RFID Radio Frequency IDentification y otras tecnologías para el rastreo de bienes y servicios, ya que podrían adquirir la naturaleza de sistemas J. C. Chandy. Desafíos en el diseño de sistemas cyber-físicos. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

7 de control distribuido en tiempo real. Los juegos distribuidos en tiempo real que integran sensores y actuadores podrían cambiar la naturaleza, relativamente pasiva, de las interacciones sociales en línea. El impacto económico de cualquiera de estas aplicaciones sería enorme, sin embargo, la informática y las tecnologías de red actuales, pueden obstaculizar innecesariamente el progreso hacia estas aplicaciones. Por ejemplo, la falta de semántica temporal y de adecuados modelos de concurrencia en la informática, y las tecnologías de red actuales dificultan el previsible y exacto rendimiento de tiempo real. Las tecnologías de los componentes de software, incluyendo el diseño orientado a objetos y las arquitecturas orientadas a servicios, son construidas sobre abstracciones que coinciden mejor con el software que con los sistemas físicos. Muchas aplicaciones no se pueden lograr sin cambios sustanciales en las abstracciones fundamentales. 2. REQUISITOS PARA LOS CPS Los sistemas embebidos siempre han tenido mayor fiabilidad y estándares de previsibilidad que los de computación de propósito general. Los consumidores no esperan que su televisor se bloquee y reiniciar el sistema; ellos cuentan con que los autos sean de alta fiabilidad, donde, de hecho, se utiliza un controlador computarizado para mejorar la confiabilidad y la eficiencia de los mismos. En la transición a los CPS, esa expectativa de fiabilidad se incrementará. De hecho, sin una mayor fiabilidad y previsibilidad, los CPS no se podrán utilizar en aplicaciones como el control de tráfico, la seguridad automovilística y el cuidado de la salud. El mundo físico, sin embargo, no es totalmente predecible. Los Sistemas Cyber-físicos operaran en un ambiente extremadamente controlado, que debe ser resistente a condiciones inesperadas, y adaptable a los errores de los subsistemas. Un ingeniero se enfrenta a una tensión intrínseca: diseñar componentes predecibles y fiables hace que sea más fáciles ensamblarlos en sistemas predecibles y fiables. Pero ninguno componente es perfectamente fiable, y el entorno físico se encargará de frustrar la previsibilidad mediante la manifestación de condiciones inesperadas. Dado que los componentes son predecibles y fiables, qué tanto de esa previsibilidad y confiabilidad puede depender del diseñador cuando diseña el sistema? Cómo evitarlas en los diseños frágiles, donde pequeñas variaciones en las condiciones de funcionamiento esperadas causan fallas catastróficas? Éste no es un problema nuevo en ingeniería. Los diseñadores de circuitos digitales han llegado a confiar en circuitos asombrosamente predecibles y fiables, y han aprendido a aprovechar intrínsecamente los procesos estocásticos el movimiento de los electrones para ofrecer una precisión y fiabilidad sin precedentes en la historia de la innovación humana. Pueden ofrecer circuitos que realizan una función lógica esencialmente a la perfección, a tiempo, y miles de millones de veces por segundo, durante años. Todo esto se construye sobre un fundamento altamente aleatorio. Deberían los diseñadores de sistemas confiar en esta previsibilidad y fiabilidad? De hecho, todos los sistemas digitales actuales dependen hasta cierto punto de esto. Existe un inmenso debate acerca de si esta dependencia impide de cierta forma el progreso de la tecnología de los circuitos. Los circuitos extremadamente pequeños son más vulnerables a la aleatoriedad del fundamento subyacente, y si los diseñadores de sistemas dependieran menos de la previsibilidad y la fiabilidad de los circuitos digitales, podríamos avanzar más rápidamente a características de tamaño más pequeño. El mayor fabricante de semiconductores no ha seguido el paso y diseñó un proceso de fabricación de circuitos que ofrece puertas lógicas que funcionan el 80% del tiempo especificado. Estas puertas se consideran un completo fracasado, y un proceso que las produzca habitualmente tendrá un rendimiento muy pobre. Pero los diseñadores de sistemas diseñan sistemas resistentes a esos fracasos. El propósito es mejorar el rendimiento, no mejorar la fiabilidad del producto final. Una puerta que falle el 20% de las veces es una compuerta fracasada, y un sistema exitoso ha de evitarla. Las puertas deben funcionar prácticamente el 100% del tiempo. La cuestión, por lo tanto, no es diseñar sistemas robustos, sino más bien en qué nivel de robustez se va a construir. Debemos diseñar sistemas que trabajen con puertas lógicas que funcionan el 80% del tiempo especificado? o debemos diseñar sistemas que reconfiguren las puertas que fallan el 20% del tiempo, y luego asumir que el trabajo que esas puertas realizan esencialmente es del 100% del tiempo? El valor de poder contar con puertas que han superado la prueba de rendimiento para trabajar prácticamente el 100% del tiempo es enorme. Esa solidez en cualquier nivel de abstracción en el diseño del sistema es valiosa, pero no elimina la necesidad de robustecer los niveles superiores de abstracción. Los diseñadores de sistemas de memoria, a pesar de la alta fiabilidad y previsibilidad de los componentes, todavía utilizan sumas de comprobación y código de corrección de errores. Si tenemos un billón de componentes por ejemplo, un gigabyte de memoria RAM que funcionan un billón de veces por segundo, entonces, incluso la fiabilidad casi perfecta, en ocasiones entregará errores. 7

8 El principio que necesitamos seguir es simple: si los componentes son tecnológicamente factibles, deben ser predecibles y fiables en cualquier nivel de abstracción; si no es tecnológicamente factible, entonces el siguiente nivel de abstracción, por encima de ellos, debe compensar esa falencia con solidez. El éxito de los diseños de hoy sigue este principio, y todavía son técnicamente viables para diseñar puertas predecibles y fiables. Por lo tanto, también el diseño de sistemas cuenta con él. Es más difícil diseñar enlaces inalámbricos predecibles y fiables, por lo que debemos compensar los niveles superiores utilizando protocolos sólidos de codificación y de adaptación. La pregunta obvia es si es técnicamente viable diseñar sistemas de software predecibles y fiables. En los fundamentos de la arquitectura de computadores y los lenguajes de programación, el software es perfectamente previsible y fiable, si limitamos el término "software" para referirnos sólo a lo que se expresa en simples lenguajes de programación. Dado un lenguaje de programación imperativo, sin concurrencia, como C, los diseñadores pueden contar con un computador para realizar exactamente lo que se especifica, con una fiabilidad prácticamente del 100%. El problema surge cuando pasamos de programas simples a sistemas de software, y particularmente a sistemas cyber-físicos. El hecho es que incluso el más simple programa en C no es predecible ni fiable en el contexto de los CPS, ya que dicho programa no expresa los aspectos del comportamiento que son esenciales para el sistema. Se puede ejecutar perfectamente, hacer que su semántica coincida exactamente, y todavía no puede ofrecer el comportamiento que el sistema necesita. Por ejemplo, podría perder la sincronización del reloj. Debido a que la sincronización no está en la semántica de C, si un programa la pierde, en realidad sería irrelevante determinar si se ha ejecutado correctamente. Pero es muy pertinente para determinar si el sistema ha funcionado correctamente. Un componente que es perfectamente predecible y fiable resulta no ser predecible y fiable en las dimensiones que importan. Esto es una falla de la abstracción. El problema empeora a medida que los sistemas de software se vuelven más complejos. Si damos un paso fuera de C y utilizamos sistemas operativos antiguos para realizar I/O o para crear threads concurrentes, inmediatamente pasaremos de una previsibilidad y fiabilidad esencialmente perfectas al comportamiento salvaje no determinista que reina en el diseño de software [1]. Semáforos, cerraduras de exclusión mutua, transacciones, y prioridades son algunas de las herramientas que los diseñadores de software han desarrollado para tratar de compensar esa pérdida de previsibilidad y fiabilidad. Pero la pregunta que debemos hacernos es si esta pérdida de previsibilidad y fiabilidad es realmente necesaria; creemos que no. El software previsible y fiable no elimina la necesidad de diseñar sistemas robustos, pero cambia radicalmente la naturaleza del desafío. Si es técnicamente posible, debemos seguir el principio de hacer que los sistemas sean predecibles y fiables, y renunciar a esto sólo cuando haya evidencias convincentes de que no es posible ni rentable. No existen tales evidencias para el software. Por otra parte, tenemos una ventaja enorme: el fundamento sobre el que se construyen los sistemas de software los circuitos digitales es perfectamente previsible y fiable con respecto a las propiedades que nos interesan: la sincronización y la funcionalidad. Fig. 1. Capas de abstracción en computación Examinemos más a fondo la falla de la abstracción. La Fig. 1 ilustra algunas de las capas de abstracción de las que dependemos cuando diseñamos sistemas embebidos. En este diagrama de Venn tridimensional, cada cuadro representa un conjunto. Por ejemplo, en la parte inferior, tenemos el conjunto de todos los microprocesadores. Un elemento de este conjunto, por ejemplo el procesador Intel P4-M 1.6GHz, es un microprocesador particular. Por encima está el conjunto de todos los programas 86, cada uno de los cuales se pueden ejecutar en ese procesador. Este conjunto está precisamente definido a diferencia del conjunto anterior, que es difícil de definir por la arquitectura del conjunto de instrucciones x86 ISA. Cualquier programa codificado en ese conjunto de instrucciones es un miembro del conjunto, como una implementación particular de una máquina virtual Java. Asociado a este miembro existe otro conjunto, el conjunto de todos los programas código byte de JVM. Cada uno de estos programas normalmente es sintetizado por un compilador desde un programa Java, que es miembro del conjunto de todos los 8

9 programas Java sintácticamente válidos. Una vez más, este conjunto está definido precisamente por la sintaxis de Java. Cada uno de estos conjuntos provee una capa de abstracción que se utiliza para aislar al diseñador persona o programa que selecciona los elementos del conjunto de los detalles que le preceden. Muchas de las mejores innovaciones en computación se han originado en una construcción y definición cuidadosa e innovadora de estos conjuntos. Sin embargo, en el estado actual del software embebido, casi toda la abstracción falla. En ISA, la intención de ocultar al software los detalles de implementación del hardware ha fracasado, porque el usuario de ISA se preocupa por las propiedades de sincronización que ese estándar no garantiza. El lenguaje de programación, que oculta detalles de ISA a la lógica del programa, ha fracasado porque no existe un lenguaje de programación ampliamente utilizado que exprese las propiedades de sincronización. La sincronización es simplemente un accidente de la implementación. Un sistema operativo de tiempo real oculta los detalles del programa desde su instrumentación concurrente, sin embargo, esto no funciona porque la sincronización puede afectar el resultado. La red le esconde detalles de señalización a los sistemas, pero la mayoría de redes estándar no ofrecen sincronización garantizada. Todos los diseñadores de sistemas embebidos enfrentan versiones de este problema. Los fabricantes de aviones deben almacenar los componentes electrónicos necesarios para la línea completa de producción de un modelo de aeronave para evitar tener que volver a certificar el software cuando el hardware cambia. "Actualizar" un microprocesador en un motor de una unidad de control de un auto requiere re-probar completamente el sistema. Incluso "corregir errores" en el software o el hardware puede ser extremadamente arriesgado, ya que se puede modificar el comportamiento de la sincronización. El diseño de una capa de abstracción implica muchas propiedades, y los científicos computacionales han optado por ocultar las propiedades de sincronización de todas las abstracciones superiores. Wirth [2] dice que "es prudente ampliar lo menos posible el marco conceptual de la programación secuencial y, particularmente, para evitar la noción del tiempo de ejecución". En un sistema embebido, sin embargo, los cálculos interactúan directamente con el mundo físico, donde el tiempo no se puede abstraer innecesariamente. Incluso la computación de propósito general sufre de estos problemas. Ya que la sincronización no se especifica en los programas las plataformas de ejecución no la imponen, ya que las propiedades de sincronización de un programa no son repetibles. A menudo el software concurrente tiene un comportamiento dependiente de la sincronización, ya que pequeños cambios en ésta tienen grandes consecuencias. Los diseñadores tradicionalmente han cubierto estas fallas buscando los límites del tiempo de ejecución del peor de los casos WCET, y utilizando sistemas operativos de tiempo real RTOS con políticas de planificación predecibles. Pero esto requiere de importantes márgenes de fiabilidad, y en última instancia, esa fiabilidad es débilmente determinada por el plan de pruebas. Por otra parte, los WCET son una ficción problemática incremental, ya que las arquitecturas de los procesadores desarrollan técnicas cada vez más elaboradas para tratar estocásticamente con pipelines rigurosas, memoria jerárquica, y el paralelismo. Las arquitecturas de los procesadores modernos producen WCET virtualmente desconocidos; incluso los problemas simples demandan heroicos esfuerzos. En la práctica, los números confiables de los WCET llegan con muchas advertencias que son cada vez más raras en el software. El procesador ISA ha fracasado en proveer una abstracción adecuada. El comportamiento de la sincronización en RTOS es secundario, y cada vez es menos controlable debido al incremento de la complejidad de los sistemas, por ejemplo, con la adición de la comunicación inter-procesos. Las cerraduras, la inversión prioritaria, los interruptores y cuestiones similares rompen los formalismos, forzando a los diseñadores a confiar en el plan de pruebas, que raramente identifica errores de sincronización. Peor aún, estas técnicas producen sistemas frágiles en los que los pequeños cambios pueden causar grandes fallas. Mientras que no existan verdaderas garantías, no debemos descartar alegremente la previsibilidad que esto se pueda lograr. El hardware digital sincrónico proporciona un comportamiento de sincronización sorprendentemente preciso, y las abstracciones del software descartan varias órdenes de precisión de magnitud. Comparar la precisión de la escala de nanosegundo, con la que el hardware puede elevar una solicitud de interrupción de precisión del nivel de milisegundos, con la que los threads del software responden. No tenemos que hacerlo de esta manera. 3. ANTECEDENTES La integración de los procesos físicos y la informática no es nueva. El término "sistemas embebidos" se utiliza desde hace algún tiempo para describir los sistemas de ingeniería que combinan procesos físicos con la computación. Las aplicaciones exitosas incluyen por ejemplo sistemas de comunicación, sistemas de control de tráfico aéreo, electrónica automovilística, 9

10 aplicaciones caseras, sistemas de armamento, juegos y juguetes. Sin embargo, la mayoría de estos sistemas embebidos son "cajas" cerradas que no exponen al exterior su capacidad de cómputo. La transformación radical que nos imaginamos proviene de la unión en red de estos dispositivos. Estas redes plantean desafíos técnicos considerables. Por ejemplo, la práctica prevaleciente en el software embebido se basa en el plan de prueba para las propiedades de concurrencia y sincronización. Esto ha funcionado razonablemente bien, porque los programas son pequeños, y porque el software se almacena en una caja sin ninguna conectividad externa que pueda alterar su comportamiento. Sin embargo, las aplicaciones que nos imaginamos demandan que los sistemas embebidos sean muy sofisticados en características de conectividad, de modo que el plan de pruebas llega a ser inadecuado. En un entorno de red, se hace imposible probar el software en todas las condiciones posibles. Por otra parte, las técnicas de creación de redes de propósito general hacen que el comportamiento del programa sea mucho más imprevisible, por lo que uno de los mayores retos técnicos es lograr la sincronización predecible en esta situación. Históricamente, los sistemas embebidos fueron en gran medida un problema industrial, como el de utilizar pequeños computadores para mejorar el rendimiento o funcionalidad de un producto. En este contexto, el software embebido difiere de otro sólo en sus recursos limitados: memoria pequeña, tamaño reducido de la palabra de datos, y relojes relativamente más lentos. Desde este punto de vista, el "problema del software embebido" es un problema de optimización. Las soluciones enfatizan en la eficiencia; los ingenieros escriben software a un nivel muy bajo lenguaje ensamblador o C, evitan los sistemas operativos con un amplio conjunto de servicios y utilizan arquitecturas de computadores especializadas, como DSP programables y procesadores de red que proporcionen soporte al hardware para operaciones comunes. Estas soluciones han definido en los últimos 30 años la práctica de diseño y el desarrollo del software embebido. En un análisis que es tan válido hoy como hace más de 20 años, en 1988 Stankovic [3] lamentaba la aparición de conceptos erróneos según los cuales la computación en tiempo real era "equivalente a la informática rápida" o que era "ingeniería de rendimiento" la mayoría de la computación embebida es computación en tiempo real. Pero las limitaciones en recursos de hace 30 años seguramente no son las limitaciones de la actualidad. En efecto, los desafíos técnicos se han centrado más en la previsibilidad y la robustez que en la eficiencia. Los sistemas embebidos de seguridad-crítica, como los sistemas de control de aviones para transporte de pasajeros, se ven extremadamente forzados por la mentalidad de "caja encerrada". Por ejemplo, con el fin de asegurar a 50 años un ciclo de producción inalámbrico para el vuelo de aviones, un fabricante se ve forzado a comprar, a la vez, un suministro de microprocesadores que ejecuten el software embebido para 50 años. Para asegurar que el rendimiento en tiempo real validado se mantenga, todos estos microprocesadores deben fabricarse en la misma línea de producción y desde los mismos planos. Los sistemas no podrán beneficiarse de los próximos 50 años de mejoras tecnológicas sin hacer de nuevo la validación y la certificación del software algo extremadamente costoso. Evidentemente, la eficacia es casi irrelevante en comparación con la previsibilidad, y la previsibilidad es difícil de lograr sin congelar el diseño a nivel físico. Es evidente que algo está mal con las abstracciones de software que se utiliza. La falta de sincronización en las abstracciones informáticas ha sido explotada en gran medida por disciplinas de las ciencias computacionales como la arquitectura, los lenguajes de programación, los sistemas operativos y las redes. Las cachés, la comunicación dinámica, y la ejecución especulativa mejoran el rendimiento promedio de los casos a expensas de la previsibilidad. Estas técnicas hacen casi imposible saber cuánto tiempo se necesitará para ejecutar una pieza de código particular (Una respuesta simplista es que el tiempo de ejecución en un lenguaje Turing completo es de todos modos impredecible, por lo que no vale la pena ni siquiera intentar predecir su tiempo de ejecución. Esto no tiene sentido. Ningún sistema cyber-físico que dependa de la sincronización se puede implementar sin garantías de tiempo. Si la integridad de Turing interfiere con esto, entonces se debe sacrificar). Para hacer frente a estos problemas de arquitectura, los diseñadores pueden escoger arquitecturas de procesador alternativas tales como DSP programables, no para la eficiencia sino para la previsibilidad. Las aplicaciones sensibles al tiempo son aún menos afectadas. La evidencia anecdótica desde la instrumentación basada en computador, por ejemplo, indica que el rendimiento en tiempo real entregado por los PC de hoy es aproximadamente la misma que la entregada por los PC de mediados de la década de Más de veinte años de la ley de Moore no han mejorado las cosas en esta dimensión. Por supuesto, esto no se debe exclusivamente a la arquitectura de hardware. Los sistemas operativos, los lenguajes de programación, las interfaces de usuario, y las redes se han vuelto más elaborados. Todos han sido construidos sobre una abstracción de software en la que el tiempo es irrelevante. 10

11 El punto de vista de tiempo real predominante parece haber sido bien establecido antes de que fuera popular la computación embebida [2]. El "cálculo" es ejecutado por una secuencia de terminación de transformaciones de estado. Esta abstracción central es la base del diseño de casi todos los computadores, los lenguajes de programación y los sistemas operativos que se utilizan hoy en día. Pero, desafortunadamente, esta abstracción puede no encajar muy bien en todos ellos. Los sistemas cyber-físicos más interesantes y revolucionarios estarán conectados en red. Las técnicas de red más ampliamente utilizadas hoy introducen una gran variabilidad de sincronización y de comportamiento estocástico. Hoy en día, los sistemas embebidos suelen utilizar tecnologías de redes especializadas tales como buses CAN (Controller Area Network) en sistemas de fabricación, y buses FlexRay en aplicaciones automovilísticas. Qué aspectos de las tecnologías de red deberían o podrían ser importantes en redes de mayor escala? Que sean compatibles con las redes globales? Para ser específicos, los recientes avances en sincronización de tiempo a través de las redes es una promesa de las plataformas interconectadas, que comparten una noción común de tiempo con una precisión conocida [4]. Cómo cambiar la forma en que se desarrollan las aplicaciones cyber-físicas distribuidas? Cuáles son las implicaciones para la seguridad? Podemos reducir los riesgos de seguridad creados por la posibilidad de alterar la noción de tiempo compartido? Pueden las técnicas de seguridad explotar eficientemente una noción compartida de tiempo para mejorar la robustez? La tecnología de los sistemas operativos también está agobiada bajo el peso de los requisitos de los sistemas embebidos. Todavía los RTOS son esencialmente tecnologías de mejor esfuerzo. Para especificar las propiedades en tiempo real de un programa, el diseñador tiene que salir de las abstracciones de programación, y hacer llamadas al sistema operativo para establecer prioridades o para establecer las interrupciones del temporizador. Son los RTOS simplemente un parche temporal para las fundaciones de computación inadecuadas? Qué los puede reemplazar? El límite conceptual entre el sistema operativo y el lenguaje de programación sigue siendo correcto? Un límite establecido en la década de 1960, sería realmente sorprendente si lo fuera. Los sistemas cyber-físicos son por naturaleza concurrentes. Los procesos físicos son intrínsecamente concurrentes, y su acoplamiento con la computación requiere, como mínimo, la composición concurrente de los procesos computacionales con los físicos. Incluso hoy, los sistemas embebidos deben reaccionar concurrentemente a múltiples corrientes en tiempo real de estímulos de sensores y de actuadores de control múltiple. Lamentablemente, los mecanismos de interacción con el hardware de sensores y actuadores, construidos por ejemplo con el concepto de interruptores, no están bien representados en los lenguajes de programación. Han sido considerados dominio de los sistemas operativos, no del diseño de software. En cambio, las interacciones concurrentes con el hardware son revelados a los programadores a través de la abstracción de threads. Los threads, sin embargo, son notoriamente problemáticos [1, 5]. Este hecho es a menudo atribuido a los seres humanos y no a la abstracción. Sutter y Larus [6] señalan que "los seres humanos son desbordados rápidamente por la concurrencia y les resulta mucho más difícil razonar acerca de lo concurrente que del código secuencial. Aun las personas atentas pierden las posibles inserciones incluso entre simples colecciones de operaciones parcialmente ordenadas. El problema se agrava mucho más en sistemas cyber-físicos en red. Sin embargo, los seres humanos son muy eficientes para razonar acerca de sistemas concurrentes. El mundo físico es concurrente, y nuestra supervivencia depende de nuestra capacidad para razonar acerca de las dinámicas físicas concurrentes. El problema es que hemos elegido abstracciones concurrentes para el software que ni siquiera recuerdan vagamente a la concurrencia del mundo físico. Estamos tan acostumbrados a utilizarlas que hemos perdido de vista el hecho de que no son inmutables. Podría ser que la dificultad de la programación concurrente es una consecuencia de las abstracciones, y que si estuviéramos dispuestos a dejar de lado las abstracciones, entonces el problema se podría arreglar? 4. SOLUCIONES Estos problemas no son enteramente nuevos, y muchos investigadores creativos han hecho contribuciones. Los avances en la verificación formal, las técnicas de emulación y simulación, los métodos de certificación, los procesos de la ingeniería del software, los patrones de diseño y las tecnologías de componentes del software, todos ayudan. Estaríamos perdidos sin estas mejoras. Pero creemos que para formalizar su potencial, los sistemas CPS requieren fundamentalmente nuevas tecnologías. Es posible que estos sistemas surjan como mejoras incrementales en las tecnologías existentes, pero dada la falta de sincronización en las abstracciones básicas de la computación, esto parece improbable. 11

12 Sin embargo, las mejoras incrementales pueden tener un impacto considerable. Por ejemplo, la programación concurrente puede hacerse de una manera mucho mejor que mediante threads. Por ejemplo, Split-C [7] y Cilk [8] son lenguajes que como C soportan múltiples threads, con construcciones que son más fáciles de entender y de controlar que los threads primarios. Un enfoque relacionado combina extensiones del lenguaje con restricciones que limitan la expresividad de los lenguajes establecidos con el fin de obtener un comportamiento más consistente y predecible. Por ejemplo, el lenguaje Guava [5] limita a Java para que los objetos no sincronizados no se puedan accesar desde múltiples subprocesos. Además, hace explícita la distinción entre cerraduras que aseguran la integridad de los datos leídos bloqueos de lectura, y cerraduras que permiten la modificación de seguridad de los datos bloqueos de escritura. SHIM también proporciona interacciones más controlables de threads [10]. Estos cambios en los lenguajes reducen considerablemente el determinismo sin sacrificar mucho el rendimiento, pero todavía tienen riesgo de estancamiento y, nuevamente, ninguno de ellos confronta la falta de semántica temporal. Como se indicó anteriormente, creemos que el mejor enfoque tiene que ser previsible en lo que técnicamente es factible. La computación concurrente predecible es posible, pero requiere abordar el problema de forma diferente. En lugar de comenzar con un mecanismo altamente no determinista como los threads, y confiando en el desarrollador para reducir lo no determinístico, debemos empezar con lo determinístico, los mecanismos componibles, e introducir lo no determinístico sólo cuando sea necesario. Otro enfoque, que es mucho más un enfoque abajo-arriba, consiste en modificar la arquitecturas computacionales para ofrecer precisión en la sincronización [11]. Esto puede permitir la orquestación determinística de acciones concurrentes, pero deja abierta la cuestión de cómo se diseñará el software, ya que los lenguajes de programación y las metodologías tienen el tiempo completamente alejado del dominio del discurso. Lograr la precisión en la sincronización es fácil si estamos dispuestos a renunciar al rendimiento; el desafío para la ingeniería es poder ofrecer tanto precisión como rendimiento. Si bien no podemos abandonar estructuras como cachés y pipelines y 40 años de progreso en lenguajes de programación, compiladores, sistemas operativos y redes, muchos tendrán que ser re-pensados. Afortunadamente, desde la abstracción, existe mucho trabajo sobre el que nos podemos basar. Se puede extender ISA con las instrucciones que proporcionen sincronización precisa a costos bajos [12]. Se puede utilizar memoria adicional Scratchpad en lugar de caché [13]. Pipelines altamente intercalados pueden ser eficientes y ofrecer sincronización predecible [14]. La memoria para gestionar los tiempos de pausa se puede limitar [15]. Los lenguajes de programación se pueden extender con semánticas cronometradas [16]. Mediante análisis estático es posible poder elegir modelos de concurrencia adecuados [17]. Los componentes del software se pueden hacer intrínsecamente concurrentes y sincronizados [18]. Las redes pueden proporcionar tiempo de sincronización de alta precisión [4]. El análisis programado puede proporcionar control de admisión y entregar la adaptabilidad en tiempo de ejecución sin imprecisiones de sincronización [19]. Complementando los enfoques abajo-arriba aparecen las soluciones de arriba-abajo, que se centran en el concepto de diseño basado en modelos [20]. En este enfoque, "los programas" se sustituyen por "modelos" que representan comportamientos del sistema en cuestión. El software se sintetiza a partir de los modelos. Este enfoque abre un rico espacio semántico que fácilmente puede adoptar dinámicas temporales ver por ejemplo [21], incluyendo incluso las dinámicas temporales continuas del mundo físico. Sin embargo, muchos desafíos y oportunidades de esta tecnología permanecen en desarrollos relativamente inmaduros. Abstracciones de tiempo ingenuas, como los modelos de tiempo discreto comúnmente utilizados para analizar sistemas de procesamiento de control y de señales, no reflejan el verdadero comportamiento del software y las redes [22]. El concepto de "tiempo de ejecución lógico" [16] ofrece una abstracción más prometedora, pero al final todavía confía en poder conseguir los tiempos de ejecución del peor caso para componentes del software. Esta solución arriba-abajo depende de una correspondiente solución abajo-arriba. Algunos de los aspectos más interesantes del diseño basado en modelos se centran en la exploración de buenas posibilidades para la especificación y composición de interfaces. También han demostrado su utilidad para la computación de propósito general, reflejando las propiedades de comportamiento en las interfaces ver por ejemplo [23]. Sin embargo, en lo que se refiere a las propiedades que tradicionalmente no han sido expresadas en la informática, la capacidad para desarrollar y componer "teorías de interfaz" especializadas [24], son muy prometedoras. Estas teorías pueden reflejar propiedades de causalidad [25], cuyo comportamiento temporal abstracto utiliza recursos en tiempo real [26], limitaciones de sincronización [27], protocolos [28], recursos no renovables [29], y muchos otros [30]. 12

13 Un enfoque particularmente atractivo que puede permitir aprovechar la considerable inversión en tecnología de software es el desarrollo de lenguajes de coordinación [31], que introducen nuevas semánticas en el nivel de interacción entre componentes en lugar del nivel de lenguaje de programación. Manifold [32] y Reo [33] son dos ejemplos, al igual que una serie de enfoques "orientados al actor" [34]. 5. CONCLUSIÓN Para aprovechar plenamente el potencial de los CPS se deben repensar las abstracciones fundamentales de la informática. Las mejoras incrementales, por supuesto, continúan ayudando, pero la orquestación eficaz del software y los procesos físicos requiere modelos semánticos que reflejen las propiedades de interés para ambos. REFERENCIAS 1. E. A. Lee. The problem with threads. Computer, Vol. 39, No. 5, pp , N. Wirth. Toward a discipline of real-time programming. Communications of the ACM, Vol. 20, No. 8, pp , J. A. Stankovic. Misconceptions about real-time computing: a serious problem for next-generation systems. Computer, Vol. 21, No. 10, pp , S. Johannessen. Time synchronization in a local area network. IEEE Control Systems Magazine. Vol. 24, No. 2, pp , N. Zeldovich, A. Yip, F. Dabek, R. T. Morris, D. Mazieres, and F. Kaashoek. Multiprocessor support for event-driven programs. In USENIX Annual Technical Conference, San Antonio, Texas, USA, June 9-14, H. Sutter and J. Larus. Software and the concurrency revolution. ACM Queue, Vol. 3, No.7, pp , D. E. Culler, A. Dusseau, S. C. Goldstein, A. Krishnamurthy, S. Lumetta, T. v. Eicken, and K. Yelick. Parallel programming in Split-C. Proceedings of the 1993 ACM/IEEE conference on Supercomputing. Portland, Oregon, USA, pp , November, R. D. Blumofe, C. F. Joerg, B. C. Kuszmaul, C. E. Leiserson, K. H. Randall, and Y. Zhou. Cilk: an efficient multithreaded runtime system. In ACM SIGPLAN symposium on Principles and Practice of Parallel Programming (PPoPP). Santa Barbara, California, USA, pp , August, D. F. Bacon, R. E. Strom, and A. Tarafdar. Guava: a dialect of Java without data races. ACM SIGPLAN Notices. Vol. 35, pp , O. Tardieu and S. A. Edwards. SHIM: Schedulingindependent threads and exceptions in SHIM. Proceedings of the 6th ACM & IEEE International conference on Embedded software. Seoul, Korea, pp , October 22-24, S. A. Edwards and E. A. Lee. The case for the precisión timed (PRET) machine. Proceedings of the 44th annual Design Automation Conference. San Diego, CA, USA, pp , June 4-8, N. J. H. Ip and S. A. Edwards. A processor extensión for cycle-accurate real-time software. In IFIP International Conference on Embedded and Ubiquitous Computing (EUC), Vol. LNCS Seoul, Korea, pp , August, O. Avissar, R. Barua, and D. Stewart. An optimal memory allocation scheme for scratch-pad-based embedded systems. Trans. on Embedded Computing Sys., Vol. 1, No. 1, pp. 6-26, E. A. Lee and D. G. Messerschmitt. Pipeline interleaved programmable dsps: Architecture. IEEE Trans. on Acoustics, Speech, and Signal Processing, Vol. 35, No. 9, D. F. Bacon, P. Cheng, and V. Rajan. The Metronome: A simpler approach to garbage collection in real-time systems. In Workshop on Java Technologies for Real-Time and Embedded Systems. Catania, Italy, pp , November, T. A. Henzinger, B. Horowitz, and C. M. Kirsch. Giotto: A time-triggered language for embedded programming. Proceedings of the IEEE EMSOFT 2001, Vol. LNCS Tahoe City, CA, USA, G. Berry. The effectiveness of synchronous languages for the development of safety-critical systems. White paper, Esterel Technologies, E. A. Lee, S. Neuendorffer, and M. J. Wirthlin. Actororiented design of embedded hardware and software systems. Journal of Circuits, Systems, and Computers, Vol. 12, No. 3, pp , E. Bini and G. C. Buttazzo. Schedulability analysis of periodic fixed priority systems. IEEE Transactions on Computers, Vol. 53, No. 11, pp , J. Sztipanovits and G. Karsai. Model-integrated computing. IEEE Computer, Vol. 30, No. 4, pp , Y. Zhao, E. A. Lee, and J. Liu. A programming model for time-synchronized distributed real-time systems. In Real-Time and Embedded Technology and Applications Symposium (RTAS), Bellevue, WA, USA, pp April T. Nghiem, G. J. Pappas, A. Girard, and R. Alur. Timetriggered implementations of dynamic controllers. Proceedings of the 6th ACM & IEEE International conference on Embedded software. Seoul, Korea, pp. 2-11, B. H. Liskov and J. M. Wing. A behavioral notion of subtyping. ACM Transactions on Programming Languages and Systems, Vol. 16, No. 6, pp , L. de Alfaro and T. A. Henzinger. Interface theories for component-based design. In First International Workshop on Embedded Software (EMSOFT), Vol. LNCS Lake Tahoe, CA, USA, pp , October, Y. Zhou and E. A. Lee. A causality interface for deadlock analysis in dataflow. In ACM & IEEE Conference on Embedded Software (EMSOFT), Seoul, South Korea, pp , October 22-25, L. Thiele, E. Wandeler, and N. Stoimenov. Realtime interfaces for composing real-time systems. Proceedings of the 6th ACM & IEEE International conference on Embedded software, Seoul, Korea, October 22-24, T. A. Henzinger and S. Matic. An interface algebra for real-time components. Proceedings of the 12th IEEE Real-Time and Embedded Technology and Applications Symposium. San José, CA, USA, pp , April 4-7, H. Kopetz and N. Suri. Compositional design of RT systems: A conceptual basis for specification of 13

14 linking interfaces. In 6th IEEE International Symposium on Object-Oriented Real-Time Distributed Computing (ISORC 2003), Hakodate, Hokkaido, Japan, pp , May 14-16, A. Chakrabarti, L. de Alfaro, and T. A. Henzinger. Resource interfaces. In R. Alur and I. Lee, (Eds), EMSOFT, Vol. LNCS Springer: Philadelphia, USA, pp L. de Alfaro and T. A. Henzinger. Interface-based design. In M. Broy, J. Gruenbauer, D. Harel, and C. Hoare (Eds.) Engineering Theories of Softwareintensive Systems, volume NATO Science Series: Mathematics, Physics, and Chemistry, Vol. 195, pp Springer: USA, G. Papadopoulos and F. Arbab. Coordination models and languages. In M. Zelkowitz (Ed.) Advances in Computers - The Engineering of Large Systems, Vol. 46, pp , G. A. Papadopoulos, A. Stavrou, and O. Papapetrou. An implementation framework for software architectures based on the coordination paradigm. Science of Computer Programming, Vol. 60, No. 1, pp , F. Arbab. Reo: A channel-based coordination model for component composition. Mathematical Structures in Computer Science, Vol. 14, No. 3, pp , E. A. Lee. Model-driven development - from objectoriented design to actor-oriented design. In Workshop on Software Engineering for Embedded Systems: From Requirements to Implementation, (a.k.a. The Monterey Workshop). Chicago, USA, September 24,

15 TOWARDS ENERGY EFFICIENCY IN COMPUTING HACIA LA EFICIENCIA ENERGÉTICA EN LA COMPUTACIÓN Bernardo Aebischeri Instituto Suizo de tecnología. Zurich, Switzerland (Tipo de Artículo: REFLEXIÓN. Recibido el 04/09/2010. Aceptado el 30/10/2010) Abstract Today, almost everyone is aware of the energy problem facing humanity: our primary energy sources are being depleted, while demand, both commercial and domestic, is increasing. Moreover, the side effects of using traditional energy sources bring significant global environmental considerations. This paper offers an answer to the question: What is the role of computers in energy demand, and where we need to focus to reduce consumption and improve energy efficiency? Keywords: Energy efficiency, computing, power, energy. Resumen Actualmente, casi todo el mundo es consciente del problema energético que enfrenta la humanidad: nuestras fuentes primarias de energía se están agotando, mientras que la demanda, tanto en entornos comerciales como en los domésticos, es cada vez mayor. Por otra parte, los efectos secundarios del uso de las fuentes tradicionales de energía traen importantes consideraciones ambientales globales. En este trabajo se ofrece una respuesta a la pregunta: Qué papel juegan los equipos informáticos en la demanda de energía, y dónde debemos focalizarnos para reducir el consumo y mejorar la eficiencia energética? Palabras clave: Eficiencia energética, computación, potencia, energía. 1. INTRODUCCIÓN La expectativa por desarrollar nuevas fuentes de energía sostenible tiene por lo menos tres décadas de trabajo constante. Steve Chu [1], secretario de Energía de los EE.UU., puso esta situación en contexto: "Se necesita una estrategia doble para resolver el problema de la energía: 1) maximizar la eficiencia energética y disminuir el consumo de energía; y 2) desarrollar nuevas fuentes de energía limpia. El primero seguirá siendo el fruto más bajo en el árbol para las próximas décadas". Qué papel juegan los equipos informáticos en la demanda de energía, y dónde debemos focalizarnos para reducir el consumo y mejorar la eficiencia energética? En agosto de 2007, la Agencia de Protección Ambiental EPA [2] le envió al Congreso de los EE.UU. un reporte acerca de la eficiencia energética de los servidores y centros de datos. Algunas de las conclusiones clave del informe son: Los servidores y centros de datos consumieron 61 billones de kwh en 2006, lo que representó el 1.5% del consumo total de energía ese año en los EE.UU., y US$ 4.5 billones en costos; en promedio equivalente a las necesidades energéticas de 5.8 millones de hogares. La electricidad consumida en este sector se duplicó entre 2000 y 2006, una tendencia que se espera continúe. Los sistemas de infraestructura necesarios para apoyar la operación de equipos IT por ejemplo equipos de protección y sistemas de refrigeración también consumen una cantidad significativa de potencia, que abarca el 50% del consumo anual de energía. Extractos de este informe se muestran en la Figura 1 y en la Tabla 1, y en ellos sobresalen especialmente dos puntos: el primero se refiere a que la misma infraestructura de los espacios para funcionamiento del equipo informático consume mucha energía. Este consumo de la infraestructura está representado principalmente en la calefacción, la ventilación y el aire acondicionado; además, la que se utiliza para convertir y transmitir potencia y mantener su continuidad este último incluye los transformadores y los equipos de conmutación de alimentación y transmisión, así como el equipo de acondicionamiento de potencia y las fuentes de alimentación ininterrumpida. Este factor es de gran importancia, pero no puede ser el área principal a la que se enfrenten los profesionales de la informática. El segundo punto que sobresale en el informe es el equipo de cómputo en sí. Sólo el volumen de servidores, de los cinco tipos de equipos IT estudiados, fue responsable de la mayor parte de energía utilizada: 68%. Suponiendo que la tasa de crecimiento anual Compound Annual Growth Rate CAGR del volumen de servidores se mantiene en 17%, se convertirán en el principal objetivo para reducir energía en el área de IT. En el mismo informe se detalla que la tasa de crecimiento de los dispositivos de almacenamiento es de 20% una tasa de la que los datos más recientes sugieren que se está acelerando, lo que indica otra tendencia importante. B. Aebischeri. Hacia la eficiencia energética en la computación. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

16 Fig. 1. Consumo de electricidad de los componentes de uso final Fuente: Environmental Protection Agency TABLA 1 Electricidad que consumen los componentes de uso final 2000 a /2006 Componente Uso de Uso de Uso de % % energía Energía energía Infraestructura Equipo de redes Almacenamiento Servidores grandes Servidores medios Volumen servidores Total Fuente: Environmental Protection Agency Si el crecimiento exponencial de los equipos informáticos de los centros de datos, revelado en este estudio, se mantiene, se espera que para el 2011 se necesite aproximadamente el doble de la energía que se demandó en el 2006 para dichos centros. Esto plantea desafíos obvios más allá de los económicos. Por ejemplo, la demanda máxima instantánea se espera que aumente de 7GW en 2006 a 12GW en 2011, por lo que se necesitarán diez nuevas plantas de potencia base para satisfacer esta demanda. En algunas áreas, las limitaciones físicas en disponibilidad de potencia son ya una limitante para los centros de datos; un gerente gestor de TI en Morgan Stanley [3] observó no hace mucho que la empresa ya no era capaz físicamente de obtener la potencia necesaria para hacer funcionar un nuevo centro de datos en Manhattan. La situación es tan grave, que corporaciones como ebay, Google, Amazon, Microsoft y Yahoo están buscando lugares adecuados en los que puedan construir centros de datos, necesarios para correr sus aplicaciones web y ofrecer los servicios que actualmente poseen. Algunas de estas empresas ya han negociado con ciertos estados en los EE.UU., así como a nivel internacional, para la construcción de estas instalaciones además de las plantas de poder necesarias para su suministro. Hace unos años, Google provocó lo que algunos periodistas denominaron "una moderna carrera armamentista" cuando situó una nueva instalación a lo largo del río Columbia en Washington. Los beneficios combinados de bajos costos en tierras, bajas temperatura en el ambiente exterior, y la disponibilidad de agua potable para la refrigeración y la generación de potencia hidroeléctrica, podría proporcionarle a Google un antídoto para los agudos problemas de disponibilidad de energía y los costos asociados. Existe alguna evidencia 1 de que la cantidad de energía consumida por los equipos informáticos móviles y de escritorio es aproximadamente de la misma magnitud que la utilizada por los servidores en los centros de datos, aunque no se tiene un estudio completo y autorizado al cual referirse. Los datos de la EPA que aquí se presenta ofrecen una perspectiva detallada sobre dónde va la energía, en el panorama de la computación, en el cada vez más importante segmento de los servidores. Además, alguna fundamentación tendrá esta información, cuando el programa EnergyStar de la EPA en electrónica de consumo puso, como resultado al anterior informe, a la computación móvil y a la de escritorio en el mismo espacio que el resto de componentes informáticos. 2. ADMINISTRACIÓN DE POTENCIA EN LA INFORMÁTICA ACTUAL Quizás el factor clave a considerar con los sistemas informáticos actuales es que la cantidad de potencia que consumen no se ajusta suficientemente a la cantidad de trabajo que el sistema realiza. El objetivo principal de diseño para la mayoría de los sistemas informáticos de 1 La Administración de Información Energética de los EE.UU. informó, en 2001, que los computadores e impresoras en los hogares americanos consumieron 23.1 TW/h [6]; cifra similar en 2006 [7]. 16

17 propósito general, hasta la fecha, ha sido el de maximizar el rendimiento o, tal vez, el rendimiento a un precio determinado con muy poca consideración en cuanto al uso de la energía. Esto ha cambiado rápidamente a medida que nos acercamos al punto en el que el costo de un equipo de cómputo será superado por el costo de la energía para su operación, incluso durante su relativamente corto 3 a 5 años período de amortización; es el momento de prestar la suficiente atención a la energía en el diseño del sistema. Aunque el ejercicio se ha hecho para calcular la energía proporcional [4] es decir, la cantidad de potencia necesaria se corresponde directamente con el grado en que el sistema o componente se utiliza, está muy lejos de la situación actual. Muchos componentes de los sistemas informáticos actuales tienen muy bajos niveles de utilización, y la mayoría de los sistemas gastan gran parte de su tiempo de operación en niveles de uso relativamente bajos. Las fuentes de potencia han sido notorias por su ineficiencia, especialmente con una carga baja, y los ventiladores pueden desperdiciar mucha energía cuando se utilizan sin cuidado. Sin embargo, en los últimos cuatro años la eficiencia de las fuentes de alimentación ha mejorado [5]. De hecho, han surgido algoritmos que ajustan más continuamente las velocidades del ventilador en relación con las necesidades térmicas, en lugar de utilizar sólo algunos puntos de velocidad discreta. Sin embargo, la mayoría de los componentes de hardware en los sistemas informáticos de hoy todavía se deben gestionar de forma explícita, y las concepciones y facilidades para administrar la potencia en los sistemas informáticos, ampliamente desplegadas, aun son rudimentarias. 2.1 Administración de la potencia Existen dos modalidades básicas de administración de potencia: 1) funcionamiento vs. suspensión, en la que un componente o sistema se puede apagar cuando no esté en uso es decir, una vez que cambie su estado a en reposo, pero se vuelve a encender cuando sea necesario; y 2) de ajuste de rendimiento mientras está en ejecución, en la que el nivel de rendimiento de un componente puede bajar o subir con base en el nivel de utilización observado u otra necesidad de la carga de trabajo. La opción de funcionamiento vs. suspensión a menudo se llama estados de energía, de un componente o sistema. Si bien existe un estado único para representar el funcionamiento, puede haber más de uno para la suspensión, lo que permite que la potencia se suspenda más progresivamente, si existe alguna estructura de potencia relevante para su implementación, desde el hardware asociado al componente o sistema. Las CPUs, por ejemplo, pueden suspender su ejecución simplemente al detener la emisión de instrucciones o al apagar su circuito de reloj. Sin embargo, algunos estados de potencia más profundos pueden remover sucesivamente la energía del caché de los procesadores, de los TLBs Translation Lookaside Buffers, de los controladores de memoria, y así sucesivamente. Mientras más componentes de hardware se suspendan más potencia se ahorra, pero entonces habrá una latencia mayor para reanudar su funcionamiento, o será necesaria energía adicional para salvar y restaurar el contenido del hardware al reiniciarlo o para ambos. Las opciones de ajuste de rendimiento, mientras se ejecutan, se conocen más naturalmente como estados de potencia de un componente. Una técnica ampliamente aplicada para ajustar el rendimiento es la de cambiar la frecuencia de operación del componente. Cuando la velocidad del reloj es baja, los niveles de voltaje de operación también se pueden reducir, y estos dos factores juntos normalmente llamados Dynamic Voltage and Frequency Scaling DVFS se traducen en un ahorro de potencia compuesto. Los estados de rendimiento se introdujeron por primera vez para las CPUs, ya que los procesadores se encuentran entre los consumidores más importantes de potencia en la plataforma hardware un CPU multi-núcleo moderno está en el rango de 35W y 165W. Los estados de rendimiento también se pueden utilizar para controlar el tamaño de caché activo, el número y/o tasas de operación de la memoria, las interconexiones I/O, y otras similares. La arquitectura más ampliamente implementada para la administración de potencia es la Advanced Configuration and Power Interface ACPI, que ha evolucionado junto con la arquitectura Intel, basadas en las plataformas hardware más ampliamente disponibles para CPUs y sus componentes relacionados. Aunque hay muchos aspectos detallados para la especificación, ACPI ofrece principalmente los controles necesarios para implementar las dos modalidades de administración de potencia que se acaban de describir. Además, define los estados de potencia: siete a nivel de todo el sistema, llamados estados- S S0 a S6, y cuatro a nivel de cada dispositivo llamados estados-d D0 a D3. El estado 0 S0 para el sistema y D0 para cada dispositivo indica estado en ejecución o activo, mientras que los de mayor número son los estados no ejecutados o inactivos con potencia sucesivamente más baja y en consecuencia niveles decrecientes de disponibilidad o de disposición de ejecución. ACPI también define estados de rendimiento, llamados estados-p P0 a P15, permitiendo un máximo de 16 por dispositivo, que afectan el rendimiento operativo del componente durante la ejecución. Ambos afectan el consumo de potencia. 17

18 3. EFICIENCIA ENERGÉTICA EN LA COMPUTACIÓN A pesar de que ACPI es un importante estándar con amplio apoyo de parte de los fabricantes, sólo proporciona un mecanismo para controlar los aspectos del sistema con el propósito de afectar su consumo de potencia. Esto permite pero no establece explícitamente la eficiencia energética. Se necesitan aspectos de más alto nivel de la arquitectura general del sistema para explotar este o cualquier otro mecanismo similar. Qué tanto difiere el cálculo de la eficiencia energética de la administración de potencia? Cómo se puede saber que se ha resuelto el problema de la eficiencia energética para un sistema informático? He aquí una visión simple: "El sistema consume la cantidad mínima de energía 2 requerida para realizar cualquier tarea". En otras palabras, la eficiencia energética es un problema de optimización. Dicho sistema deberá ajustar dinámicamente sus recursos hardware, de forma que sólo se habiliten los que se necesita para realizar esas tareas ya sea para completarlas a tiempo, o por analogía, para proporcionar el rendimiento requerido para mantener un nivel de servicio establecido, y como un resultado, la energía total utilizada se reducirá al mínimo. Tradicionalmente, los sistemas se han diseñado para obtener el máximo rendimiento para la carga de trabajo. En los sistemas energéticamente eficientes, en algunos casos todavía se desea obtener el máximo de rendimiento para algunas tareas o para la carga de trabajo completa, pero el sistema también debe reducir al mínimo el uso de energía. Es importante entender que el rendimiento y la eficiencia energética no son mutuamente excluyentes. Por ejemplo, incluso cuando se logra el máximo rendimiento, un recurso que se deba desactivar o cuyo rendimiento individual se pueda reducir sin afectar el tiempo para completar lo mejor posible la carga de trabajo o el rendimiento, constituyen optimización energética. De hecho, en cualquier sistema existen pocas o ninguna situaciones en las que se explote la capacidad total de los recursos hardware es decir, todos operan a sus niveles de máximo rendimiento. Los sistemas que se esfuerzan por obtener el máximo rendimiento en todo momento son notoriamente sobre-saturados y en consecuencia poco utilizados. Sin embargo, las personas que participan en el diseño de sistemas informáticos prácticos pueden notar que nuestra ciencia es débil en esta área área que se podría 2 Potencia es la relación de transferencia de energía respecto al tiempo, de modo que para una potencia constante, energía = potencia x tiempo. Potencia y energía son conceptos diferentes y no deben confundirse. llamar "planificación de la capacidad dinámica y del aprovisionamiento dinámico". La optimización de la energía obviamente está sujeta a ciertas restricciones. Algunos ejemplos son: 3.1 Se deben mantener los niveles de rendimiento requeridos Las tareas con plazos se deben completar a tiempo. En el caso general, se especifica una fecha límite para una tarea o la carga de trabajo. Cuando se especifica una fecha límite que es menor o igual a la óptima en la que el sistema puede lograr ese trabajo con cualquiera o con todos los recursos hardware, implica también un máximo rendimiento. Este es efectivamente un caso extremo. El máximo rendimiento para una tarea o carga de trabajo proporciona una estipulación implícita de la fecha límite óptima, o "tan pronto como sea posible" 3. En este caso, la optimización de energía se limita a los recursos que se pueden desactivar o cuyo rendimiento individual se puede reducir, sin afectar el tiempo para completar lo mejor posible la carga de trabajo. Si se especifica una fecha límite menor que la mejor fecha límite alcanzable, el cálculo puede tardar algún tiempo hasta esta fecha, y el sistema puede buscar un mínimo de energía más global para la tarea o trabajo. Las fechas límite podrían considerarse "difíciles", en cuyo caso el asignador de recursos para optimizar energía del sistema debe garantizar de alguna manera su cumplimiento lo que plantea problemas de difícil aplicación ; o considerarse "suaves", en cuyo caso sólo se puede tolerar un mayor esfuerzo. Los servicios deben operar de acuerdo con el volumen de trabajo. Para los servicios en línea, la noción de volumen de trabajo, con el fin de caracterizar el nivel de rendimiento requerido, puede ser más adecuada que lograr un plazo de ejecución. Dado que los servicios, en su implementación, en última instancia pueden descomponerse en tareas individuales a completar, se espera que haya una técnica análoga aunque los medios más adecuados de especificar su restricción de rendimiento puedan ser diferentes. 3.2 El sistema debe responder a los cambios de la demanda Las cargas de trabajo reales no son estáticas. La cantidad de trabajo establecido y los recursos 3 Todos los valores de vencimiento D = t i, menores que el más corto plazo a lograr, son equivalentes a establecer: D = t o; es decir: { t t i < t o, [D = t i] [D = t o]}. Por lo tanto, se puede denotar el máximo rendimiento para D = 0. 18

19 necesarios para alcanzar un determinado nivel de rendimiento variarán mientras se ejecutan. La respuesta dinámica es una consideración práctica importante relacionada con el nivel de servicio. El volumen de trabajo (T) debe ser alcanzable dentro de la latencia (L). La especificación de la latencia máxima en la que se puede activar la capacidad del hardware reservado o incrementar su nivel de rendimiento parece un requerimiento claro, pero también debe estar relacionada con las necesidades de rendimiento de la tarea o del trabajo en cuestión. El volumen de trabajo depende del tipo de tarea. Una métrica como TPS Transactions Per Second puede ser relevante para la operación de sistemas de bases de datos, cuadros por segundo para el componente de renderización de un subsistema de generación de imágenes, o medidas correspondientes para un servicio de clasificación, interconexión I/O, o interfaz de red. El uso interactivo impone criterios de respuesta como medios de distribución en tiempo real: computacional, de almacenamiento, y de capacidad I/O requeridos para cumplir las tasas de ejecución de audio y video. Aquí se sugiere una manera por medio de la cual podría, en la práctica, manejarse tan diversos requisitos de volumen de trabajo. La potencia instantánea nunca debe exceder su límite (P). Se puede especificar un límite de potencia máxima para respetar sus límites de disponibilidad prácticos ya sea para un sistema individual o para un centro de datos en conjunto. En algunos casos, puede ser permisible exceder brevemente este límite. Las combinaciones de estas restricciones significa que se debe esperar el exceso de restricción en algunas circunstancias, y por lo tanto también se requerirá una política para restringir la relajación. Podría ser preferible una precedencia estricta de restricciones o hacer entre ellas un intercambio más complejo. 4. UNA PROPUESTA DE SOLUCIÓN Teniendo en cuenta este concepto para calcular la eficiencia energética, cómo deberían construirse los sistemas? Cómo se esperaría que operara un sistema de energía eficiente? Un sistema debería tener tres aspectos principales que podrían resolver este problema: 1. Debe ser capaz de construir un modelo de poder que le permita saber cómo y dónde se consume potencia, y cómo la puede manipular este componente es la base para la promulgación de cualquier forma de administración de potencia. 2. Debe tener un medio para determinar los requisitos de desempeño de las tareas o de la carga de trabajo ya sea por observación o por algún medio de comunicación más explícito. Estas son las limitaciones de determinación y rendimiento de la evaluación de componentes. 3. Por último, debe implementar un optimizador de energía un medio para decidir una energía, una configuración eficiente del hardware para todo momento que esté en funcionamiento. Una optimización que puede ser relativa decidida heurísticamente o absoluta basada en técnicas analíticas. Esta es la capacidad de planificación y dinámica del componente de aprovisionamiento. El primer aspecto es relativamente fácil de construir. El tercero es sin duda inmediatamente accesible, especialmente cuando la(s) técnica(s) de optimización se basa(n) en métodos heurísticos. La segunda consideración es la de mayor proporción, y representa una importante consecuencia perjudicial para el cálculo de la eficiencia de la energía, y podría demandar bases más formales programación para comunicar al sistema los requisitos de la carga de trabajo. Para esto se necesita una descripción de las necesidades básicas de aprovisionamiento de la carga de trabajo, junto con una forma de indicar tanto sus requisitos de rendimiento como el rendimiento en el momento. También podría ser útil una forma de indicar a priori la sensibilidad esperada de los diferentes recursos del sistema a los cambios en el aprovisionamiento. Afortunadamente, existe una serie de enfoques prácticos para seguir la eficiencia energética antes de habilitar los refinamientos esperados. 4.1 Modelo de potencia Con el fin de administrar la eficiencia energética del hardware del sistema 4, éste debe conocer los detalles específicos de potencia de los dispositivos físicos bajo su control. Los componentes de potencia gestionables deben desplegar el control que ofrecen en el modelo arquitectónico ACPI), tales como sus estados de potencia y de rendimiento, respectivamente estados-d y estados-p. Sin embargo, para permitir el modelado de potencia en relación con el rendimiento y la disponibilidad es decir, en relación con su respuesta de activación, la interfaz del componente también debe describir como mínimo lo siguiente: 4 "El sistema", de forma natural, se refiere al sistema operativo, aunque está claro que también debe incluir al hipervisor para sistemas virtualizados. Se puede esperar que este concepto tendrá que ampliarse razonablemente para incluir algunos aspectos del firmware e incluso componentes de hardware y tiempos de ejecución importantes, como la máquina virtual Java, que es la responsable de la asignación de recursos. 19

20 El consumo de potencia por estado para cada estado inactivo, o el rango de potencia para cada estado activo. La latencia de transición de estados, o el tiempo necesario para realizar cada transición de estado. Energía para el cambio de estado, o la energía consumida al cambiar de estado. Una vez que el sistema tiene un modelo de potencia, consistente de todo el hardware que gestiona potencia, se tiene el fundamento básico para operacionalizar la optimización de energía. Es importante destacar que en él se tiene el conocimiento de los componentes que consumen más potencia y los que tienen los controles de respuesta de más alta capacidad que se puede utilizar para afectar el uso de potencia. 4.2 Restricciones de carga de trabajo y de evaluación de desempeño En su deseo de limitar la cantidad de hardware activo y reducir su rendimiento para minimizar el consumo de potencia, cómo debe ser un sistema para saber si las tareas en ejecución todavía alcanzan el volumen de trabajo para mantener niveles adecuados de servicio o para lograr sus plazos? La evaluación de la carga de trabajo está sujeta a la tarea o aplicación en cuestión. El sistema operativo puede observar el grado en que sus distintos recursos han sido y son utilizados, y podría utilizar estas observaciones como sus mejores bases para predecir las necesidades de recursos futuras, tanto para reducir como para ampliar las que tiene disponibles. Se trata de una base relativamente débil para determinar qué carga de trabajo se necesitará, especialmente para anticipar su sensibilidad de respuesta dinámica. Como resultado, el sistema tendrá que ser mucho más conservador en cuanto a su reducción de los recursos disponibles o sus niveles de rendimiento. Parece claro que el mejor resultado se logrará si las aplicaciones evalúan su carga de trabajo en relación con sus requisitos de nivel de servicio o plazos de ejecución, y que puedan transmitir esa información al sistema operativo a través de una interfaz. Entonces, el sistema puede utilizar esta información para hacer potencialmente ajustes de recursos mucho más agresivos y en consecuencia aplicar una solución de optimización de energía totalmente mejorada. He aquí la dicotomía crucial: el sistema es responsable de resolver el problema de la optimización de energía de acuerdo con los recursos que asigna, mientras que la aplicación es responsable de monitorear su propio nivel de rendimiento e informar al sistema para que sean puestos a su disposición los recursos apropiados. 4.3 Optimización de la energía por parte del Sistema Una vez que conoce las características de potencia del hardware, y posiblemente con la información descriptiva acerca de sus limitaciones a partir del nivel de aplicación del software, el sistema operativo debe comenzar el proceso dinámico de ajustar el rendimiento del hardware y los niveles de disponibilidad para controlar el consumo de potencia y mejorar el uso de energía de todo el sistema. Cómo puede el sistema operativo tomar tales decisiones? Métodos heurísticos. Aprovisionar energía para una carga de trabajo máxima puede, en algunos casos, optimizarla. Esta es la conjetura según la cual el rendimiento (máximo) es verde, que se refleja en las ideas de carrera al ocio o carrera al sueño [8]. Aunque hay evidencia de que este enfoque tiene mérito del lado del cliente cuando el sistema está inactivo especialmente para los sistemas embebidos y móviles donde se puede ahorrar hasta el 95% de la energía si todo el sistema se pone en un estado de suspensión, no es claro cómo se puede aplicar para calcular del lado del servidor. En algunos casos existe un incremento no lineal de la potencia requerida para obtener aceleración lineal carga de trabajo, por ejemplo el modo turbo de los procesadores contemporáneos de Intel y por lo tanto, en todos los casos, la energía óptima no se encuentra en un punto de aprovisionamiento y rendimiento acorde con la máxima carga de trabajo. Ajustar dinámicamente el nivel de rendimiento del hardware, en función de su utilización, es una heurística utilizada ampliamente para el mejoramiento energético en sistemas activos: hacia abajo con una utilización baja o hacia arriba con una utilización alta utilización por debajo o por encima de cierto umbral para cierta duración. Esta puede ser una técnica eficaz, pero se limita a situaciones en las que, para hacer el cambio de estado, tanto la latencia como la energía son tan bajas que son insignificantes. Optimización basada en restricciones para un enfoque. En algunos casos puede ser posible ofrecer una solución analítica completa para simplificar el problema a tal grado. Por ejemplo, si se considera solamente una tarea individual en una CPU individual con una compensación de poder/rendimiento bien comprendida, es relativamente sencillo especificar completamente una agenda en la que la sea posible unir la tarea a su fecha de entrega con un mínimo de energía total. De forma más general los resultados formales también son posibles [9]. Sin embargo, esto se basa en una serie de supuestos que a menudo no se tienen en la práctica, como buenas estimaciones del trabajo total requerido por un proceso. Supuestos más débiles requieren algoritmos de optimización en línea para lograr la 20

21 programación consiente de energía. Existen algunos trabajos en esta área, pero aún no los suficientes como para sostener un sistema operativo de propósito general [10]. Para que un enfoque basado en optimización sea aplicable de forma general, se requiere una serie de técnicas. En los casos más sencillos, es posible el funcionamiento autónomo a nivel de dispositivo; por ejemplo, una GPU Graphics Processing Unit a nivel de hardware, puede disminuir potencia sin usar instalaciones de hardware agresivamente, con base exclusivamente en las apreciaciones instantáneas de sus niveles de utilización, debido a que mientras sea necesaria la latencia para hacer una copia de seguridad de esas instalaciones, será intrascendente. Prácticas similares parecen ser aplicables en el uso de los estados-p de la CPU rendimiento de la CPU y el ajuste costo-energía basado en la escala de voltaje y frecuencia, ya que tanto la energía de transición de estados como la latencia son muy bajas. Los cambios de estado de hardware que afectan la potencia pero presentan una latencia mucho mayor, y/o una cantidad de energía mucho mayor para hacer el cambio de estado, requieren un tratamiento diferente. Un ejemplo obvio es un disco duro desacelerándose, situación en la que hay que tener en cuenta la latencia extensa que se requiere para volverlo a iniciar; pero esta latencia no es la única preocupación. Los sistemas de memoria de los semiconductores en las que parte de la memoria física total podría apagarse si no es requerida, y donde la latencia de encendido puede ser cercana a cero, todavía tendrán una energía de transición resultante, ya que se puede requerir muchas transacciones en memoria para reunir el conjunto de trabajo en esas páginas físicas que permanecen activas 5. Los recursos de esta clase requieren, para garantizar que la latencia de activación puede ser tolerada o mantenida y que la energía de cambio de estado será superada por la energía que se ahorrará mientras esté en ese estado, un mayor conocimiento de la tarea o el comportamiento de la carga de trabajo, así como un tratamiento anticipatorio de los recursos de hardware requeridos. Algunas técnicas de optimización comunes se pueden basar en la latencia de cambio de estado, sus demandas de energía, y así sucesivamente, y de éstas podría surgir una taxonomía de las mismas unas formales o analíticas, otras basadas en métodos más numéricos o heurísticos. Aunque se espera que las técnicas específicas, para la apropiada optimización de energía para 5 Es interesante considerar si las heurísticas tradicionales tales como la regla de cinco minutos, diseñada para optimizar por rendimiento la jerarquía de memoria, podría tener analogías en la optimización de energía. recursos hardware diferentes o subsistemas, sea algo diferente y que estén sujetas a las propiedades de los recursos hardware en cuestión, la esperanza es que la composición de optimizadores de eficiencia energética para todos los recursos se acumularán para formar un esquema de eficiencia para el sistema en su conjunto CÓMO LOGRARLO La visión de concesiones de sistema completo para eficiencia energética no se puede lograr en un solo paso individual. Los sistemas de software actuales no están equipados en las formas descritas, ni son aplicaciones escritas de forma que permitan aprovechar esa capacidad. En términos pragmáticos, cómo se puede alcanzar este resultado, y qué medidas están ya en marcha? Como una primera consideración, los sistemas deben ser revisados para prestar atención al uso de energía; el sistema operativo en sí mismo, que siempre está en funcionamiento, todavía no ha optimizado su propio uso de energía. Hasta la fecha casi todo el software, incluyendo el software de sistemas, ha sido optimizado para rendimiento, robustez y escalabilidad pero sin considerar a la energía. Un paso inicial, por lo tanto, es rediseñar e implementar la eficiencia energética en el funcionamiento del sistema operativo. Esta es una tarea importante, y sus implicaciones todavía no se entienden completamente. No es claro si es factible modificar los sistemas operativos existentes para que consideren a la energía como un obstáculo de primera clase, algo que sin duda sería preferible. La experiencia con sistemas de seguridad muestra que es muy complicado introducir tales consideraciones después de hechos. Con seguridad, y debido a la presión de la eficiencia energética, se pueden anticipar nuevas y fundamentales estructuras dentro del software de sistemas, e incluso que surgirán nuevos sistemas operativos. Por lo menos, se debe adaptar las facilidades de administración de recursos en el sistema operativo para la concientización y optimización energética. Procesadores. Dada la importante fracción de poder que se atribuye a las CPU en las plataformas contemporánea y como consecuencia la introducción temprana de características de administración de poder en ellos, se ha logrado muchos avances en la programación de los sistemas operativos. La descuidada activación de hardware cuando no es 6 Se reconoce que tal reduccionismo puede ser demasiado optimista si hay interacciones entre los recursos asignados por diferentes subsistemas, y que un enfoque más holístico por ejemplo, un amplio enfoque de programación dinámica,puede entonces ser necesario en sistemas donde "todos los joule cuentan". 21

22 útil para algún trabajo se debe eliminar. La revisión constante de un programa director al interior del sistema operativo o de las aplicaciones es un ejemplo obvio; pero éste utilizar un reloj de alta frecuencia con interrupciones de base para temporizar los eventos, manejar la hora normal, y programar la ejecución de subprocesos, algo que puede ser bastante problemático. El objetivo es mantener el hardware en reposo hasta que se necesite. El proyecto de núcleo "tickless" [11] en Linux introduce una aplicación inicial de las marcas de aprobación dinámicas. Reprogramando el temporizador periódico de interrupciones por CPU, para eliminar las marcas de aprobación del reloj durante el reposo, se puede mejorar en un factor de 10 o más la cantidad promedio de tiempo que invierte una CPU para manter su estado de reposo, después de cada entrada de estado inactivo. Más allá de las buenas ideas que se presentan desde Linux, el proyecto Tesla en OpenSolaris también está considerando lo que significa la transición hacia un esquema más amplio basado en eventos para el desarrollo de software en el sistema operativo. La confluencia de características en los modernos procesadores CMT Chip Multi threading, CMP Chip Multiprocessor, y NUMA Non-Uniform Memory Access para sistemas multi-procesador con sockets múltiples, está generando de parte de los desarrolladores la presentación de gran cantidad de nuevos trabajos orientados a implementar la eficiencia energética [12]. Teniendo en cuenta la capacidad de alterar los niveles de rendimiento, la eficiencia energética y la introducción de CPUs multi-núcleo heterogéneos 7, sólo falta añadir este componente [13,14]. Almacenamiento. En comparación con las CPU, el poder consumido por una unidad de disco no parece especialmente grande. Un disco típico de 3.5 y 7200 RPM consume entre 7W y 8W sólo el 10% de lo que una típica CPU multi-núcleo consume. Aunque de mayor rendimiento, uno de RPM consumen alrededor de 14W, y uno de RPM quizás pueda utilizar alrededor de 20W; entonces, cuál es la preocupación? La alarmante tasa de crecimiento relativa al almacenamiento, podría cambiar rápidamente el porcentaje de potencia total que representan los dispositivos de almacenamiento. Los factores de rendimiento y fiabilidad han dado lugar a la aplicación de husos múltiples, tan común actualmente, incluso en sistemas de escritorio para implementar una simple solución RAID. Las soluciones de almacenamiento están aumentando mucho más rápido en el centro de datos. 7 Son CPUs multi-núcleo en el las que los núcleos de diferentes niveles de rendimiento se colocan en el mismo paquete múltinúcleo, por lo que su consumo de poder es muy diferente. Los chasis para servidores de gama baja, de uso rutinario en los hogares, tienen espacio para una docena o más unidades. Por ejemplo, el rack 4U de Sun para arreglos de almacenamiento tiene capacidad para 46 unidades de 3.5. Por lo que si se utilizan unidades industriales de 10000RPM ó 15000RPM, se podría incrementar el consumo de potencia entre 1.088W y 1.6kW. Actualmente, los subsistemas de almacenamiento obviamente están en el radar atento de la energía. Hay por lo menos dos medidas inmediatas que se pueden tomar para ayudar a mejorar el consumo de energía en los dispositivos de almacenamiento. La primera es la atención directa al uso de energía en el tradicional almacenamiento basado en disco. Parte de este trabajo lo iniciaron los vendedores de hardware de discos, quienes están empezando a introducir los estados de potencia en sus unidades de disco, y otra parte la comenzaron los desarrolladores de sistemas operativos trabajando en los actuales sistemas de archivos como Zettabyte File System ZFS, y en la administración de los recursos de almacenamiento. La segunda, se deriva particularmente de la reciente introducción de los grandes dispositivos de memoria Flash de bajo costo. La memoria Flash llena una importante brecha de capacidad/rendimiento entre los dispositivos de memoria principal y los discos [15,16], pero también tiene enormes ventajas de eficiencia energética sobre los medios de rotación mecánica. Memoria. Debido a su relativamente bajo requerimiento de potencia por ejemplo, 2W por DIMM, a primera vista la memoria principal parece ser un motivo de preocupación aún menos importante que los discos. Su tamaño medio en las plataformas de hardware actual, sin embargo, la puede posicionar para crecer más rápidamente. Con el foco de los fabricantes de sistemas hardware centrado sobre todo en los niveles de rendimiento para mantenerse al día con la correspondiente demanda de rendimiento de los CPUs multi-núcleo, es fundamental mantener siempre el ancho de banda entre la CPU y la memoria. La consecuencia ha sido una evolución en los módulos DIMM desde un canal simple a uno doble y ahora a uno triple, en las correspondientes tecnologías SDRAM DDR, DDR2 y DDR3. Aunque las reducciones en el tamaño de los procesos de fabricación DDR3 está en la tecnología de 50 nanómetros ha permitido subir la frecuencia del reloj y bajar un poco la potencia por DIMM. El deseo de un rendimiento aún mayor mediante el aumento de DIMMs por canal de memoria sigue incrementando el consumo total de potencia en el sistema de memoria. Por ejemplo, un servidor con un sistema de cuatro sockets basado en el CPU Niagara2 de ocho núcleos de Sun, con 16 módulos DIMM por 22

23 socket y usando tecnología de memoria de doble canal DDR2, tiene en total 64 módulos DIMM; y podría incrementarse a 24 módulos DIMM por socket 96 en total, si su sucesor más rápido utiliza en su lugar memoria de triple canal DDR3. Un DIMM DDR2 representativo consume 1.65W ó 3.3W por par, mientras que la edición de más baja potencia de los actuales módulos DIMM DDR3 consume 1.3W ó 3.9W por cada tres. El resultado parece ser un incremento de sólo 20% en el consumo de potencia en total entre 100W y 120W para nuestro ejemplo. Sin embargo, teniendo en cuenta que la siguiente generación de CPUs también tendrá dos veces más de núcleos por zócalo, un escenario posible resultante es el deseo de tener dos veces el número de conjuntos de memoria por sockets para un posible total de 192 módulos DIMM, con el objetivo de equilibrar el rendimiento del sistema de memoria en general. El resultado, por lo tanto, podría ser un incremento de 100W a 240W 140% más de consumo de potencia para el sistema de memoria completo! Esta tendencia se observa incluso en las máquinas de clase escritorio, sin duda en una escala mucho menor, como los sistemas que han aparecido conteniendo CPUs hyperthreaded de cuatro núcleos como el Nehalem de Intel. Si la memoria física disponible se puede activar y desactivar, y quizás correspondientemente reconfigurar como una capacidad de procesamiento del sistema, se podrá ajustar dinámicamente algunas funcionalidades nuevas que se requerirán del subsistema de administración de memoria del sistema operativo. Mirando al futuro, se constituye en un problema abierto el diseño de un sistema de memoria virtual que sea consiente de la energía, y que sea capaz de ajustar los recursos físicos de la memoria mientras está en funcionamiento. I/O. Los aspectos energéticos del sistema I/O en las plataformas hardware probablemente sean más importantes. Como un simple ejemplo, los actuales sistemas y subsistemas interconectados de redes de área local se han desarrollado en dos aspectos importantes: la agregación de enlaces, que cada vez es más utilizada para impulsar las redes y la fiabilidad de la banda ancha; y la velocidad de interconexión individual, que ha avanzado de 1GB a 10GB, y se espera llegue pronto a 40GB. Un transmisor-receptor para una tarjeta de interfaz de red de 10GB puede requerir hoy, como mucho, 14W cuando funciona a toda velocidad, con una consecuente reducción de potencia cuando su velocidad de vínculo se reduce a 1GB o menos alrededor de 3W a 1GB y 1W a 100MB. Se puede esperar que otras interconexiones de alta velocidad, como InfiniBand, tengan similares consideraciones de energía para el sistema completo. Se ha prestado poca atención a las implicaciones energéticas de las interconexiones de comunicación en cualquiera de sus diferentes manifestaciones arquitectónicas, desde un chip hasta redes de área amplia. 5.1 La evolución del software de aplicaciones El aspecto más estratégico de la informática energéticamente eficiente será la evolución del software de aplicación para facilitar la eficiencia energética del sistema completo. Aunque sin duda, apoyando el desarrollo de nuevas aplicaciones de eficiencia energética, podremos esperar nuevas interfaces de aplicación para el software del sistema, la transición de las aplicaciones históricas y las actuales representa una evolución a largo plazo. Mientras tanto, cómo vamos a abordar el problema de una mayor eficiencia energética para el resto de la base instalada? Obviamente, no se producirá como resultado de una implementación única de todas las aplicaciones existentes. Una posibilidad para abordar el agnosticismo de energía de las aplicaciones existentes es realizar un análisis extrínseco de su comportamiento en tiempo de ejecución. Los datos empíricos se pueden colectar del grado en que el rendimiento de la aplicación es sensible a los diferentes niveles y a los tipos de aprovisionamiento de recursos. Por ejemplo, se puede observar el grado en que el rendimiento 8 se incrementa por la adición de recursos a la CPU, o la adjudicación de una CPU con micro-arquitectura de mayor rendimiento, y así sucesivamente [14]. La aplicación puede entonces indicar, en su forma binaria, cuál es la medida de su grado de sensibilidad, sin necesidad de alterar la implementación existente. El sistema operativo podría usar los datos para asignar los recursos que persigan cierto nivel de rendimiento especificado, o para localizar una adecuada compensación de consumo energía vs. rendimiento. Inevitablemente, se espera que se necesite una combinación de ambas técnicas, en la que explícitamente la propia aplicación le informa al sistema de su carga de trabajo y de las necesidades de aprovisionamiento de recursos; e implícitamente en que análisis estático y dinámico se utilizan para modelar la necesidad de recursos, en relación con el rendimiento y el consumo de energía. 6. CONCLUSIÓN Todavía estamos en el debut de la conciencia energética computacional; con mucha atención de parte de la industria, que ha permitido la introducción y el uso de mecanismos y controles de administración de energía en los componentes individuales de hardware, pero poca atención al 8 Esto supone que se debe definir un objetivo de métrica de rendimiento externa, que puede ser problemático. 23

24 problema más amplio de la eficiencia energética: la minimización del total de energía requerida para ejecutar cargas de trabajo computacional en un sistema. En este trabajo se propone un enfoque general a la eficiencia energética en sistemas computacionales, y se propone la implementación de mecanismos de optimización energética en el software de los sistemas, equipados con un modelo de potencia para el hardware del mismo; y se describen las aplicaciones que sugieren ajuste de aprovisionamiento de recursos para que puedan alcanzar sus niveles de carga de trabajo y/o plazos de ejecución requeridos. En el corto plazo se requerirá, para aplicación práctica, una serie de técnicas heurísticas diseñadas para reducir los más obvios desperdicios de energía asociados con componentes de alta potencia, tales como las CPUs. A más largo plazo, y para una más efectiva optimización de la energía total, se necesitarán técnicas para modelar el rendimiento relativo a la configuración del hardware del sistema y por tanto su consumo de energía, junto con una mejor comprensión y un conocimiento predictivo de las cargas de trabajo. REFERENCIAS 1. S. Chu, The energy problem and Lawrence Berkeley National Laboratory. Talk given to the California Air Resources Board In: df May Environmental Protection Agency, EPA report to Congress on server and data center energy efficiency In: opment.server_efficiency_study, Feb, R. H. Katz, Tech titans building boom. IEEE Spectrum, Vol. 46, No. 2, pp L. Barroso & U. Holzle, The case for energyproportional computing. IEEE Computer, Vol. 40, No. 12, pp M. Kyrnin, PC Power Supply Efficiency. How The Efficiency Rating of a Power Supply Can Save You Money. About.com guide In: ency.htm, May Energy Information Administration, Residential Energy Consumption Surveys In: els_2001.html, May K. W. Roth & K. McKenney, Energy consumption by consumer electronics in U.S. residences. Cambridge: TIAX LLC p. 8. M. Garrett, Powering down. Communications of the ACM, Vol. 51, No. 9, pp D. J. Brown & S. C. Reams, Toward energyefficient computing. Communications of the ACM, Vol. 53, No. 3, pp F. Yao, A. Demers & S. Shenker, A scheduling model for reduced CPU energy. Proceedings of 36th Annual Symposium on Foundations of Computer Science. Milwaukee, WI, USA, pp S. Siddha, Getting maximum mileage out of tickles. Proceedings of the Linux Symposium. Ottawa, Canada, pp A. Fedorova, Operating system scheduling for chip multithreaded processors. Ph.D. dissertation. Harvard University, The Division Of Engineering And Applied Sciences A. Fedorova, J. C. Saez, D. Shelepov & M. Prieto, Maximizing Power Efficiency with Asymmetric Multicore Systems. ACM Queue Magazine, Vol. 7, No D. Shelepov, J. C. Saez, S. Jeffery, A. Fedorova, N. Perez, Z. F. Huang, S. Blagoduro & V. Kumar, HASS: a scheduler for heterogeneous multicore systems. ACM Operating System Review, Vol. 43, No. 2, pp A. Leventhal, Flash storage today. ACM Queue, Vol. 6, No. 4, pp J. Mogul, E. Argollo, M. Shah & P. Faraboschi, Operating system support for NVM+DRAM hybrid main memory. Proceedings of Usenix HotOS XII. Monte Verità, Switzerland

25 EFFICIENCY ANALYSIS OF THE RENEWABLE ENERGY SOURCES ANÁLISIS A LA EFICIENCIA DE LAS FUENTES DE ENERGÍA RENOVABLE Jennifer Wangong US Environment Protection Agency Wangong.Jennifer@epa.gov Penelope Daniel US Environment Protection Agency Daniels.Penelope@epa.gov (Tipo de Artículo: REVISIÓN. Recibido el 01/09/2010. Aprobado el 20/10/2010) Abstract Despite having public support and numerous advantages over other energy sources, to renewable technologies have been characterized repeatedly failing to meet our energy needs, and are presented only as a choice between conventional fossil fuels and nuclear energy. This paper shows that this is a false choice, and that renewable energy can safely generate the same energy as conventional fuels, and can do so without producing carbon emissions or radioactive waste that pollute the environment. Keywords: Renewable energy, efficiency, solar energy, wind power, solar, fossil fuels. Resumen A pesar de tener el apoyo del público y numerosas ventajas sobre otras fuentes de energía, a las tecnologías renovables se les ha caracterizado repetidamente de no poder satisfacer nuestras necesidades energéticas, y se han presentado sólo como una opción entre los combustibles fósiles convencionales y la energía nuclear. En este trabajo se muestra que esto es una falsa opción, ya que la energía renovable puede generar de forma segura la misma energía que los combustibles convencionales, y puede hacerlo sin producir las emisiones de carbono o los residuos radiactivos que contaminan el medio ambiente. Palabras clave: Energía renovable, eficiencia, energía solar, energía eólica, paneles solares, combustibles fósiles. 1. INTRODUCCIÓN La energía renovable que incluye a la energía solar, la eólica, la hidráulica avanzada, ciertos tipos de biomasa y a la energía geotérmica [1] tiene el potencial de reemplazar a los combustibles fósiles convencionales y a la energía nuclear. Mientras que las energías renovables no hidráulicas proporcionan actualmente sólo 2.3% de la electricidad en los EE.UU., mezclar las diversas tecnologías renovables existentes es técnica y económicamente factible para satisfacer completamente sus necesidades energéticas. De hecho, hasta un 20% de la electricidad de los EE.UU. podría provenir inmediatamente de fuentes de energía renovables no hidráulicas, sin efectos negativos para la estabilidad o confiabilidad de la red eléctrica. A largo plazo, se pueden hacer mejoras a la red, y las tecnologías renovables podrían suministrar porcentajes cada vez mayores. Examinando posibles aplicaciones y tasas de crecimiento de diferentes tecnologías, el Consejo Europeo de Energías Renovables, en su reporte de 2004 [2], concluyó que la energía renovable podría satisfacer las necesidades actuales de potencia, y para el 2040, podría proporcionar hasta el 50% de la energía primaria del mundo [3]. Estudios similares de la petrolera Shell [4] han explorado escenarios en los cuales, para el año 2050, entre un tercio y la mitad de la energía del mundo podría provenir de fuentes renovables. Es importante destacar que las tecnologías de energía renovable prácticamente no producen emisiones de gases de efecto invernadero y pueden hacer frente al cambio climático de forma efectiva. Debido a la falta de control, la perturbación de la atmósfera de la tierra representa la mayor amenaza a la humanidad en nuestra época, y si se continúa llenando con gases de efecto invernadero se derretirán las capas de hielo y el nivel del mar se elevará, trayendo patrones climáticos extremos, interrumpiendo la producción de alimentos, y destruyendo ecosistemas enteros. Cientos de millones de personas podrían quedar sin alimentos, refugio o agua potable, lo que originaría levantamientos políticos y sociales. De acuerdo con un estudio realizado por el Ministerio para el Medio Ambiente de Japón las energías renovables, combinadas con medidas de eficiencia, podrían reducir las emisiones de gases de efecto invernadero a un nivel coherente con los objetivos de la estabilización del clima mundial una reducción del 70% para el 2050 [5]. En este trabajo se hace un análisis a la eficiencia en la producción d energía de las fuentes renovables, y se concluye que con costos de capital inicial mínimos y tiempos cortos de implementación, las tecnologías renovables podrían solucionar el cambio climático global más rápidamente que la energía nuclear, sin la producción de residuos radiactivos u otros tipos importantes de contaminación, y satisfaciendo las necesidades energéticas de la humanidad. 2. CUÁNTA ENERGÍA RENOVABLE HAY La combinación de la energía eólica, la solar, la hidráulica avanzada, de biomasa y la geotérmica, en el corto y mediano plazo podría satisfacer completamente las necesidades eléctricas de los EE.UU. [6]. De acuerdo con un análisis del J. Wangong y P. Daniels. Análisis a la eficiencia de las fuentes de energía renovable. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

26 Laboratorio Nacional de Energía Renovable NREL se podría técnicamente, para el 2020, cubrir con recursos energéticos renovables toda la demanda de electricidad de los EE.UU [7]. A más largo plazo, el potencial de los recursos renovables internos superará en 85 veces el uso actual de energía [8]. 2.1 Energía eólica Investigadores de la Universidad de Stanford evaluaron el potencial de la energía eólica a nivel mundial [9]. Después de analizar más de mediciones de la velocidad del viento en todo el mundo, concluyeron que en lugares específicos el viento podría generar energía suficiente para satisfacer las demandas del planeta. De los sitios medidos, más del 13% tenía una velocidad media anual del viento lo suficientemente fuerte como para generar potencia de forma económica velocidades superiores a 6.9 m/s a 80 metros. Estos sitios candidatos se encuentran en todas las regiones, tanto en tierra como mar adentro. Los investigadores concluyeron que la energía eólica mundial podría haber generado cerca de 72 TW en el año 2000, lo que es equivalente a 208 trillones de kilovatios hora cerca de una vez y medio el consumo de energía actual anual en el mundo. El Laboratorio del Pacífico Noroeste, al evaluar el potencial eólico de los EE.UU., estimó que la energía eólica terrestre que los estados en conjunto pueden producir, sería capaz de generar casi una vez y medio la energía que actualmente consume el país en un año [10]. Y de acuerdo con un análisis realizado por el DOE Department of Energy, a 50 millas de la costa mar adentro hay adicionalmente 900 GW de energía eólica. Esto es equivalente, por lo menos, a 2.6 trillones de kwh/año casi el 70% de la energía utilizada actualmente en el país [11]. Sin embargo, para producir esta cantidad de energía, no existen los desarrollos significativos que necesita la tecnología eólica. Las turbinas modernas son diseños robustos de tres aspas de eje horizontal que aprovechan el viento mediante motores controlados por computador. La capacidad de potencia de estas turbinas se ha incrementado dramáticamente en los últimos veinte años, pasando de 24 kw en 1981 a 1.5 MW en 2006 [12]. Las turbinas se han desarrollado para funcionar a altas velocidades, con alta eficiencia y baja tensión, lo que contribuye a su buena fiabilidad. Sólo con investigación en nuevos materiales de compuestos ligeros, sistemas avanzados de control, y métodos para hacer frente a las variables adicionales que aparecen en los sitios mar adentro, se mejorará la eficiencia de estos diseños [13]. También se espera que en los próximos cinco a diez años sean comunes: el contador de revoluciones de los diseños de turbina de eje horizontal, que captura un amplio rango de velocidades de viento, y las turbinas de eje vertical, que tienen el potencial para generar 10.4 MW por turbina. La cuestión más importante que enfrentan estas turbinas es la necesidad de una adecuada ubicación y la aprobación de parte de la comunidad. 2.2 Energía solar Cualquier medida de la cantidad de energía solar también es enorme. Cada hora golpea la superficie de la Tierra más energía de la que se consume a nivel mundial en un año [14]. De acuerdo con el Solar Energy Technologies Program [15], diariamente hay disponibles en el planeta entre 2.8 y 6.2 kw/h de luz solar por metro cuadrado. La cantidad exacta de esta luz depende de la región y la temporada. En los Estados Unidos, el promedio anual por día es de 4.8 kwh/m 2 [16]. Una forma de aprovechar esta energía es transformarla directamente en electricidad [17]. Hay dos tipos de tecnología fotovoltaica desarrolladas para este fin: los paneles fotovoltaicos y los concentradores fotovoltaicos. Para los paneles, la eficiencia o capacidad de las células fotovoltaicas para capturar la energía solar y convertirla en electricidad varía entre 12% y 25%. Los mismos paneles tienen eficiencias ligeramente más bajas que las celdas actuales debido a la estructura y el cableado. Tradicionalmente, al incrementar la eficiencia también se incrementa el costo y el espesor del silicio de los paneles. Sin embargo, varios científicos lograron desarrollar paneles baratos y flexibles de una película delgada, capaces de lograr 15% más de eficiencia [18]. Estos paneles han comenzado a producirse a gran escala [19]. Como resultado y con la tecnología existente, la energía fotovoltaica podría hacer una contribución significativa a la producción de energía en los EE.UU. De acuerdo con un estudio de la Fundación para la Energía, los EE.UU. podrían generar aproximadamente 1 millón de MW de energía fotovoltaica en 2025, si se utiliza al menos el 15% de la eficiencia del panel y una estimación conservadora de por lo menos millones de m 2 del espacio disponible en las azoteas residenciales y comerciales, lo que generaría aproximadamente 1.9 billones de kw/h al año casi la mitad de su consumo eléctrico actual [20]. Esta cifra no incluye otras formas de generación distribuida de electricidad fotovoltaica, como paneles instalados en tierra, tejas fotovoltaicas, plazas de aparcamiento cubiertas, ventanas, toldos, y las fachadas de los edificios. Tampoco tiene en cuenta las mejoras adicionales en la eficiencia del panel. De acuerdo con el análisis del NREL, el potencial técnico total de energía fotovoltaica en los EE.UU., a largo plazo, es de 26

27 alrededor de 219 TW que podría proporcionar más de tres veces la energía que se consume actualmente en el mundo. Los concentradores fotovoltaicos los sistemas que reflejan o enfocan la luz de una amplia zona en un pequeño panel fotovoltaico también podrían hacer una contribución significativa a las necesidades energéticas de EE.UU. Los concentradores solares que hacen seguimiento al sol producen un nivel más constante de "energía pico" durante todo el día, y operan con mayor eficiencia que los paneles fotovoltaicos. Los concentradores también pueden reducir costos mediante la reducción de material fotovoltaico por unidad de energía generada aunque sí necesitan un elemento óptico de bajo costo y una estructura de apoyo y seguimiento [21] y podrían ser muy adecuados para estabilizar la generación de los parques eólicos y para las instalaciones a lo largo de las carreteras y corredores de transmisión. 2.3 Hidráulica avanzada La energía hidroeléctrica proporciona actualmente el 10% de la generación eléctrica en EE.UU. y podría ser una fuente importante de energía renovable [22]. Las grandes presas convencionales, sin embargo, han causado graves daños ambientales [23], por lo que tendrán que ser adaptadas o reducidas; mientras tanto se instalan sistemas más pequeños con diseños de turbina avanzados hasta 25 MW. Según el DOE, estos sistemas avanzados se pueden aplicar a más del 80% de los proyectos hidroeléctricos existentes, y pueden construirse en pequeñas represas existentes que previamente no hayan sido utilizadas para producir potencia [24]. El diseño de hidráulica avanzada reduce el impacto de las turbinas en los peces, ya que facilita su migración aguas arriba, y reduce los problemas de sedimentos y calidad del agua. Los sistemas fluviales, que aprovechan el poder del movimiento del agua sin represas o embalses, también son una alternativa pequeña y de bajo impacto que podría desarrollarse donde se han eliminado embalses o en sitios nuevos. El potencial estimado de los recursos hídricos sostenibles de las presas existentes en EE.UU. está en el rango de entre 77 y 82 GW; esto incluye 62 GW adaptados de los proyectos de energía hidroeléctrica existentes y entre 15 y 20 GW de la instalación de sistemas avanzados en otras pequeñas presas también existentes [25]. Estas fuentes de energía hidroeléctrica podrían aportar entre 337 y 359 billones de kw/h al año, es decir, entre el 8.5% y el 9% del consumo actual de electricidad en los EE.UU. 2.4 Biomasa La biomasa es la combustión de materia orgánica típicamente cultivos agrícolas y pastos para producir calor o electricidad. La energía de la biomasa, a diferencia de la solar y la eólica, produce significantes emisiones de dióxido de carbono. Estas emisiones, sin embargo, pueden ser compensadas mediante la plantación de nuevos cultivos que absorban el dióxido de carbono a medida que crecen. La emisión de carbono en relación con la absorción de carbono, la ubicación de ambos procesos, y los efectos sobre el suelo local y la calidad del agua, son temas importantes que se deben considerar al determinar qué formas de biomasa son sostenibles. Para que la biomasa sea una fuente importante de energía renovable que no emita carbono, las cosechas deben ser pequeñas y fertilizadas, transportadas sólo en distancias cortas, y cultivadas y cosechadas de manera que no degraden la tierra. Las hierbas -como los bejucos y la gran caña azul son posibilidades de biomasa de bajo impacto. Si se produce y se usa correctamente, la biomasa podría contribuir significativamente a satisfacer las necesidades de energía de los EE.UU. Según un estudio del NREL, la biomasa podría producir, para el 2020, entre el 17% y el 28% de la electricidad de los EE.UU. [26]. 3. VARIABILIDAD E INTERMITENCIA A pesar de las capacidades y la inmensidad de recursos de las tecnologías renovables, a menudo se les describe como demasiado variables e inconsistentes para satisfacer las necesidades energéticas del mundo. Esto, sin embargo, es una imagen incorrecta. La hidráulica avanzada y la biomasa sostenible ya son capaces de producir potencia de carga base, y la energía eólica de mar adentro tiene un potencial similar. En cuanto a los paneles fotovoltaicos y la eólica de tierra, si bien es cierto que "el sol no siempre brilla y el viento no siempre sopla, es posible aprovecharlas de manera que se reduzcan sustancialmente sus problemas de intermitencia y variabilidad. Un análisis de la Agencia Internacional de Energía IEA [27], un organismo intergubernamental de veintiséis países, comprometidos a avanzar en la seguridad del abastecimiento energético, el crecimiento económico y la sostenibilidad ambiental concluye que la intermitencia no es un obstáculo técnico para la energía renovable. Para hacer frente a la variabilidad y la intermitencia IEA [28] recomienda la generación distribuida, vínculos entre zonas geográficas, una mezcla diversa de tecnologías de aprovechamiento de diferentes recursos, y el desarrollo continuado de tecnologías de almacenamiento. Ya se han hecho avances significativos en este sentido. Las tres primeras medidas por sí solas pueden permitir que las tecnologías renovables no hidráulicas superen, para el año 2020, el 20% de la capacidad de generación sin afectar la estabilidad o fiabilidad de la red. 27

28 A más largo plazo, el almacenamiento sigue siendo la cuestión más importante. En la actualidad, las mejores opciones para almacenar son el bombeo hidroeléctrico de agua y el aire comprimido. La primera mueve el agua, cuando se produce electricidad adicional, de los embalses menores a los mayores, y la libera cuando se necesita más potencia. Este sistema está bien establecido, es de bajo costo, proporciona hasta un 80% de eficiencia, y tiene una enorme capacidad de almacenamiento. Además, ya que la energía se almacena en tiempos de alta generación, este sistema no compite con la generación hidroeléctrica [29]; y, gracias a la tecnología hidráulica avanzada, puede tener un impacto ambiental mínimo. Los sistemas de aire comprimido trabajan con un principio similar: comprimen aire y lo almacenan en cavernas subterráneas herméticas durante las épocas de menor demanda, y cuando es necesario lo liberan para accionar las turbinas [30]. Últimamente esta tecnología ha sido objeto de importantes aportes, lo que le ha permitido ser diseñada para almacenar energía en los parques eólicos. A más largo plazo, el desarrollo de redes regionales extensas estabilizará cada vez más la generación distribuida geográficamente, y la producción de hidrógeno probablemente se convertirá en un importante mecanismo de almacenamiento de energía. 4. COSTO DE LAS TECNOLOGÍAS RENOVABLES A pesar de todas sus ventajas, las tecnologías renovables se rechazan por ser demasiado costosas. Este argumento falla al no tener en cuenta dos factores muy importantes: 1) en los últimos cincuenta años, el apoyo federal para la energía nuclear y los combustibles fósiles ha superado con creces el apoyo a las tecnologías renovables. Este desequilibrio se ha traducido en un desarrollo tecnológico y una comercialización desigual; y 2) mientras que los costos de las tecnologías renovables están disminuyendo considerablemente, se continúa desestimando los costos de la energía nuclear y de los combustibles convencionales. 4.1 El subsidio federal En los últimos cincuenta años, el apoyo federal para la energía nuclear y los combustibles fósiles ha sido significativo, mientras que para las tecnologías renovables ha sido limitado. De acuerdo con un reporte del Renewable Energy Policy Project REPP [31], entre 1947 y 1999, los subsidios directos para la energía nuclear del gobierno federal ascendieron a billones de dólares, mientras que para las energías eólica y solar fue de 5.49 billones [32]. Si se añade a estas cifras las notables subvenciones no presupuestarias directas como limitaciones a la responsabilidad por daños nucleares y la inversión en energía renovable y créditos fiscales, las subvenciones federales para el mismo período ascienden a billones de dólares para la energía nuclear y a 5.7 billones para las otras. Estas cifras son consistentes con el estudio realizado en 1992 por Charles Komanoff [33], un economista en energía y transporte reconocido internacionalmente, que subsidió la energía nuclear con alrededor de 124 billones dólares hasta La disparidad en financiación continúa y está bien ilustrada por recientes créditos y en el Energy Policy Act de Por ejemplo, el presupuesto anual para el National Renewable Energy Laboratory NREL la investigación primaria del país y centro de desarrollo para tecnologías de energías renovables fue de sólo 174 millones para el año fiscal 2006 [34], 28 millones menos que para el año fiscal 2005, y es menor que la subvención a NuStart Energy un consorcio de empresas energéticas que buscan construir nuevas centrales nucleares en los EE.UU. 4.2 Costo A pesar de la enorme discrepancia en el apoyo federal, la energía eólica es competitiva con la energía nuclear y los combustibles fósiles en alrededor de US $0.05 y 0.06 por kwh, y el precio de la energía solar fotovoltaica se ha reducido aproximadamente entre US $0.25 y 0.30 por kwh [35]. Con los recientes avances en tecnología fotovoltaica de capa fina, el mejor desempeño de turbinas eólicas, y las grandes economías de escala [36], se espera que sigan cayendo los costos de estas y otras tecnologías. A medida que más paneles se produzcan y se requiera menos material fotovoltaico por panel [37], se espera que el costo de la energía solar tenga una reducción particularmente dramática. El precio de la energía fotovoltaica, por ejemplo, ha demostrado una caída de 20% por cada duplicación del volumen de producción [38]. También es importante incluir los costos, que actualmente no se valoran con centavos de dólar por kwh, de las tecnologías convencionales [39]. Para los combustibles fósiles estos costos externos incluyen las emisiones de carbono, la contaminación del aire y la tierra, y para el carbón la degradación del agua de las minas. Para la energía nuclear incluyen la contaminación de la minería del uranio, la seguridad y los riesgos planteados por los reactores comerciales, los riesgos de la proliferación de armas nucleares, y el peligroso legado de los residuos radiactivos [40]. Además, mientras que la mayoría de las fuentes de energía renovables son de suministro libre e ilimitado, el carbón y el uranio son finitos [41]. Si estos efectos se cuantifican e incluyen en el precio de los combustibles convencionales, las energías renovables serán de hecho mucho más baratas para la sociedad [42]. 28

29 5. CONCLUSIONES Además de las tecnologías renovables, el uso de energía más eficiente es también un componente importante que anima a avanzar hacia un futuro de energía limpia. La eficiencia es la forma más barata y sencilla de reducir el consumo de electricidad y facilitar la transición a las tecnologías renovables. En 1994, la Office of Technology Assessment OTA [43], del gobierno federal, estimó que los EE.UU. podrían reducir su consumo de electricidad entre un 20% y un 45% mediante la adopción de tecnologías eficientes disponibles en ese momento. Igualmente concluyó, en 1994, que el gobierno federal, el mayor consumidor de energía del país, podría reducir el consumo de la energía en sus instalaciones, al menos en un 25%, utilizando las medidas de eficiencia económica disponibles comercialmente [44]. Esta serie de cambios incluyen: mejoras en calefacción, ventilación y de los sistemas de aire acondicionado, refrigeradores más eficientes y otros electrodomésticos, sistemas avanzados de iluminación, y el aumento de aislamiento de los edificios. Desde principios de 1990, cuando se realizaron estos análisis, han aparecido en el mercado otras medidas de eficiencia como las luces LED [45]. Por todo esto, al incrementar la eficiencia de las tecnologías, se incrementan las reducciones del consumo energético. Por ejemplo, las bombas de calor terrestre también son una medida de eficiencia efectiva, ya que utilizan la temperatura relativamente constante de la tierra para proporcionar calefacción y refrigeración. Se estima que el uso generalizado de estas bombas puede reducir la energía utilizada para calefacción y refrigeración entre un 30% y un 60% [46] [47]. En la actualidad, hay muchas barreras normativas artificiales que limitan el crecimiento inmediato de las tecnologías de energía renovable [48]. Si realmente se desea avanzar hacia estas tecnologías, y ajustar la forma de producir y vender la energía renovable, es necesario establecer acuerdos de compra a largo plazo entre los productores de energía renovable, e incrementar las utilidades y los usuarios finales [49]. Cambios como estos pueden afectar desde los niveles locales hasta los estatales y mundiales. Además, las ciudades y los estados pueden desarrollar estándares de cartera renovable que asignen un determinado porcentaje a la generación de energía proveniente de tecnologías renovables, y pueden poner en marcha incentivos financieros que fomenten su desarrollo [50]. REFERENCIAS 1. Academy of sciences for the developing world TWAS. Sustainable energy for Developing Countries. Trieste: TWAS Press. 48 p A. Grubler. Technology and Global Change. Cambridge: Cambridge University Press. 464 p European Renewable Energy Council EREC. Renewable Energy Scenario to p Disponible en: /Publications/EREC_Scenario_2040.pdf, Nov Shell International Energy Needs, Choices, and Possibilities: Scenarios to Global Business Environment. 32 p Disponible en: l_2050.pdf, Nov The Japan Times. Reactor increase not needed to cut CO 2 drastically. November The Low Carbon Society Scenarios toward 2050, Program authored the study. Disponible en: Jan Energy Information Agency. Annual Energy Review AER. Report No. DOE/EIA-0384(2009) Disponible en: 7. S. Horowitz, C. Christensen & R. Anderson. Searching for the Optimal Mix of Solar and Efficiency in Zero Net Energy Buildings. National Renewable Energy Laboratory. Conference Paper NREL/CP E. Brown. Near-Term Practical and Ultimate Technical Potential for Renewable Resources. National Renewable Energy Laboratory. Draft. January p C. L. Archer & M. Z. Jacobson. Evaluation of global wind power. Journal of Geophysical Research, Vol Disponible en: pdf, Jan D. L. Elliot & M. N. Schwartz. Wind Energy Potential in the United States. Pacific Northwest Laboratory. NTIS no. DE Disponible en: download&fileid=901, Dec Department of Energy DOE. A Framework for Offshore Wind Energy Development in the United States. Offshore Wind Collaborative Organizing Group Disponible en: Nov D. Yen-Nakafuji. California Wind Resources. Draft Staff Paper CEC D, California Energy Commission Disponible en: /CEC D.PDF, Feb European Commission. Effective policies for improving energy efficiency in buildings. Paolo Bertoldi and Bogdan Atanasiu (Eds.) Luxembourg: Office for Official Publications of the European Communities. 443 p European Commission. Photovoltaic Solar Energy. Development and current research. Luxembourg: Office for Official Publications of the European Union. 80 p Energy Efficiency and Renewable Energy. Solar FAQs Photovoltaics The Basics, Other Resources. Solar Energy Technologies Program Disponible en: vel.cfm/name=photovoltaics/cat=the%20basics, Ap A. Aulisi & G. Hanson. Developing next generation green power products for corporate 29

30 markets in North America. World Resources Institute. 24 p Disponible en 6.pdf, Jan The Green power group. Guide to Purchasing Green Power: Renewable Electricity, Renewable Energy Certificates and On-Site Renewable. 50 p Disponible en: _Guide.pdf, Feb V. Alberts, K. T. Hillie & C. M. Demanet. Atomic force microscopy imaging of polycrystalline CuInSe 2 thin films. Journal of Microscopy, Vol. 197, No. 2 pp W. Steenkamp. SA solar research eclipses rest of the world. Saturday Argus, February M. Chaudhari, L. Frantzis & T. E. Hoff. PV Grid Connected Market Potential Under a Cost Breakthrough Scenario. The EnergyFoundation and Navigant Consulting. 94 p EUREC. Research Priorities for Renewable Energy Technology by 2020 and Beyond Concentrating. 44 p Disponible en: n/task,doc_download/gid,540/, Ap Energy Information Administration. Existing Capacity by EnergySource Disponible en: 1_2.pdf, Ap A. Imhof & G. L. Lanza. Greenwashing Hydropower. World Watch Disponible en: Feb U.S. Department of Energy. Advanced Hydropower Technology. Energy Efficiencyand Renewable Energy Office Wind and Hydropower Technologies Program Disponible en: www1.eere.energy.gov/windandhydro/printable_ver sions/hydro_advtech.html, May National Renewable EnergyLaboratory. Power Technology Energy Databook. USA: Progressive Management. 220 p S. Brown. Estimating biomass and biomass change of tropical forests. A primer. FAO Forestry Paper 134. A Forest Resources Assesment publication. Rome, 55 p G. Timur & T. Stenzel. Variability of Wind Power and Other Renewables: Management Options and Strategies. International Energy Agency IEA. 51 p IEA. Key world energy statistics. France: Soregraph. 82 p Electric Storage Association. Technologies: Pumped Hydro Storage Disponible en: umped_hydro/, Ap U.S. Department of Energy. Combined Heat and Power: A Decade of Progress, A Vision for the Future. 32 p Disponible en: rgy/pdfs/chp_accomplishments_booklet.pdf, Fab M. Goldberg. Federal Energy Subsidies: Not All Technologies Are Created Equally. Research Report No. 11, Renewable Energy Policy Project. 20 p Disponible en: Dec OECD. Measuring Support to Energy. Version p Disponible en: Jun C. Komanoff & C. Roelofs. Fiscal Fission: The Economic Failure of Nuclear Power. USA: Komanoff Energy Associates. 98 p DOE. Budget Request to Congress Disponible en: Dec California Climate Change Center at UC Berkeley. Managing Greenhouse Gas Emissions in California Disponible en: df, Dec National Renewable Energy Laboratory. Advances in Photovoltaic (PV) Technology Disponible en: nar_apr_10.ppt, Jun Instituto de la ingeniería de España. Tendencias de la ingeniería: Crean material fotovoltaico para células solares más efectivo y económico. Disponible en: Feb A. Farrell, D. Kammen & F. Ling, F. Managing Greenhouse Gas Emissions in California. The California Climate Change Center at UC Berkeley. Chapter Disponible en: 0Readings/California%20GHG%20Economics/Farre ll%20-%2010- Synthesis%20Managing%20GHGs%20CA.pdf, Nov United Nations. Achieving sustainable development and promoting development cooperation: dialogues at the Economic and Social Council. New York: UN Publications. 295 p Community Science Action Guide. The secret lives of energy. Disponible en: May M. T. Klare. Viene el fascismo energético? La carrera energética global y sus consecuencias. Online: ion/ecosocialismo/fascismoenergetico.pdf, May D. Kammen & S. Pacca. Assessing the Costs of Electricity. Annual Review Environmental Resource, Vol. 29, pp U.S. Congress, Office of Technology Assessment. Energy Eflciency in Federal Facilities: Update on Funding and Potential Savings. Report OTA-BP- ETI p M. Bolinger, R. Wiser & W. Golove. Quantifying the value that wind power provides as a edge against volatile natural gas prices. Techical Report LBNL Environment Energy Technology Divition. Ernest Orlando Lawrence Berkeley National Lab., Berkeley, CA joliet. htm, May Department of Energy EERE. Selecting and Installing a Geothermal Heat Pump System Disponible en: pace_heating_cooling/index.cfm/mytopic=12670, Feb

31 47. P. J. Hughes & J. A. Shonder. The Evaluation of a 4000 Home Geothermal Heat Pump Retrofit at Fort Polk, Louisiana. Final Report, Oak Ridge National Laboratory ORNL-CON p W. W. Hogan. Electricity market restructuring: reforms of reforms. Journal of Regulatory Economics, Vol. 21, pp P. L. Lemar. The potential impact of policies to promote combined heat and power in US industry. Energy Policy, Vol. 29, pp P. H. Templet. Energy price disparity and public welfare. Ecological Economics, Vol. 36, No. 3, pp

32 DOCUMENTATION AND IMPLEMENTATION OF AN OCCUPATIONAL HEALTH AND INDUSTRIAL SAFETY SYSTEM: A NECESSITY IN THE COLOMBIAN COMPANIES DOCUMENTACIÓN E IMPLEMENTACIÓN DE UN SISTEMA DE SEGURIDAD INDUSTRIAL Y SALUD OCUPACIONAL: UNA NECESIDAD EN LAS EMPRESAS COLOMBIANAS Jenny Gallego C. Universidad de San Buenaventura Medellín jenny1610g@hotmail.com Verónica Paeres R. Universidad de San Buenaventura Medellín veritop72@hotmail.com Beatriz L. Gómez Universidad de San Buenaventura Medellín beatriz.gomez@usbmed.edu.co (Tipo de Artículo: REFLEXIÓN. Recibido el 05/11/2010. Aprobado el 29/11/2010) Abstract This article exposes the steps taken by a third-party firm that provides logistics-related packaging and manufacturing services, in order to document Colombia's OHSAS technical norm, in an effort to establish guidelines for companies and people interested in seeking information regarding the implementing of the norm; to students seeking to complement their practical point of view regarding such issues; and to business people interested in having their firms implement the norm. The article analyzes three stages of development: diagnosis, general requirements, and data documenting to obtain certification. Keywords Emergency plan, OHSAS 18001, occupational health and safety management system, risk factors. Resumen En este artículo se describen el procedimiento aplicado para documentar la Norma Técnica Colombiana OHSAS en una empresa dedicada a prestar servicios de empaque y manufactura en operaciones logísticas bajo techo, con el objetivo de ofrecer lineamientos a empresas, a personas interesadas en buscar información práctica acerca de la implementación de la norma, a estudiantes que requieran complementar con un punto de vista práctico dentro de sus asignaturas y a empresarios que deseen implementar la norma en sus propias empresas. En el artículo se analizan tres fases del desarrollo de aplicación para buscar la certificación: diagnostico, requisitos generales y documentación de la información. Palabras clave: Plan de emergencia, OHSAS 18001, sistema de gestión de seguridad y salud ocupacional, factores de riesgo. 1. INTRODUCCIÓN En la realización del presente estudio se encontró poca información en el medio acerca de casos de implementación de las normas OHSAS De allí la importancia de divulgar un tema de actualidad y de alta relevancia para las empresas colombianas. Las normas en Seguridad y Salud Ocupacional S y SO surgen como una necesidad de la comunidad internacional para crear estándares que se puedan aplicar en diferentes países. Es así como surge el modelo de las BS OHSAS Occupational Health and Safety Assessment Series, que se desarrolló como una herramienta para integrar la seguridad industrial con las normas ISO 9000 e ISO referentes a la calidad y a los efectos en el medio ambiente. Dicho documento, que apareció en los años noventa como una simple guía, se desarrolló a lo largo en los años siguientes hasta convertirse en la actual norma. Andrea Rodríguez [1], consultora del CEGESTI, resalta los cambios realizados en 2007 a las OHSAS Un mayor énfasis en la importancia de la salud, el reforzamiento en el compromiso del cumplimiento de la legislación y el compromiso con la mejora continua marcaron el inicio de un proceso de cambio del modelo inicial. Fue así como se aseguró que la salud ocupacional y la seguridad industrial fuesen un factor de calidad demostrable por parte de las empresas. De acuerdo con varios estudios realizados [2] se ha demostrado que los factores de riesgo generan muchas y diversas pérdidas en los procesos, las instalaciones y las personas. Sin embargo, si se actúa a tiempo se pueden evitar esas pérdidas materiales, pero ante todo, las humanas. La empresa sobre la que se aplica este estudio se dedica a prestar servicios de empaque y manufactura a terceros. Con el fin de reducir costos, brindar confianza y seguridad, tanto a sus clientes como a sus empleados, esta compañía busca certificarse bajo las Normas Ohsas En el diagnóstico se observaron diferentes factores de riesgo en sus instalaciones, puestos de trabajo y ambiente laboral en general. A su vez se analizaron los tipos de accidentes, enfermedades e incidentes que pudiesen ocasionar esos factores de riesgo. Finalmente, y luego de la implementación del sistema de seguridad y salud ocupacional, se observó un descenso en los indicadores de incapacidad. 2. SITUACIÓN ACTUAL Al realizar el diagnóstico a la empresa se determinó que existía una brecha entre los requisitos que contemplan la norma y la situación J. Gallego C., V. Paeres R. y B. L. Gómez. Documentación e implementación de un sistema de seguridad industrial y salud ocupacional: Una necesidad en las empresas colombianas. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

33 en la compañía. En las OHSAS se hace énfasis en la identificación, prevención y evaluación de los riesgos en el sitio de trabajo [3], pero en esta empresa no se tenía información acerca de los riesgos, no existía ninguna clase de documentación, ni existía un panorama de riesgos. Igualmente, no se contaba con una política de seguridad Industrial y salud ocupacional, la cual debe ser un punto de partida de cualquier implementación que se adecue al entorno y las necesidades de una empresa. Adicionalmente no eran claros los objetivos ni los programas de salud ocupacional existentes y tampoco se contaba con un plan de emergencias adecuado y actualizado. Para la implementación de la norma se identificaron tres pasos fundamentales: 1) desarrollar las políticas y el panorama de riesgos, identificando los requisitos legales propios del tipo de compañía, y definir objetivos y programas de salud ocupacional; 2) incluir esa información como parte de la documentación; y 3) asegurar su implementación, evaluación y verificación cumpliendo los procedimientos escritos durante la fase de documentación [4]. A continuación se describe cada uno de estos pasos. 2.1 Política de salud ocupacional Según esta norma, la política debe estar encaminada a mitigar los factores de riesgo encontrados, incluyendo el compromiso para prevenir enfermedades de acuerdo con los requisitos legales relacionados con los peligros de S y SO. En la empresa existía una política que no se adecuaba a los requerimientos de la norma, ya que no estaba enfocada en sus riesgos, no incluía el compromiso de cumplir con los requisitos legales y no hacía referencia a la revisión de sus objetivos. Debido a esto, fue necesario desarrollar una nueva política que abarcara todos estos aspectos. Adicionalmente se enfatizó en la idea de divulgarla a todos los empleados. Para esto, con base en la norma 18001, en las leyes y en resoluciones vigentes en Colombia [5-8], se planteó una nueva política de salud ocupacional. Esta política menciona literalmente: mantener y mejorar nuestro sistema de seguridad y salud ocupacional por medio de mecanismos organizacionales que permitan el bienestar físico, mental y social de los trabajadores; ofreciendo lugares de trabajo seguros y adecuados, y minimizando la ocurrencia de accidentes de trabajo y de enfermedades profesionales, con miras al mejoramiento mediante la generación de procesos seguros que favorezcan la competitividad para la ejecución de actividades relacionadas con las salud ocupacional 1. 1 Política de seguridad industrial y salud ocupacional en MAQUISER S.A. Los parámetros generales son: Mejorar el clima organizacional mediante estrategias de comunicación interna, para mitigar y controlar el impacto de los riesgos ergonómicos y psicolaborales en los empleados de la empresa. Identificar y cumplir con todos los requisitos legales vigentes en Colombia, aplicables a la organización, en cuanto a seguridad y salud ocupacional. 2.2 Plan de Evacuación La función principal del plan de evacuación es preparar a todos los integrantes de la empresa para una posible emergencia, por ejemplo un sismo, incendio, terremoto [9], entre otros. Para su desarrollo e implementación fue necesario instalar un sistema de alertas y alarma, conformar comités de emergencias, de brigadistas y de coordinadores de evacuación, diseñar y entregar la cadena de llamadas del comité de emergencias, revisar la señalización, adquirir un distintivo para brigadistas y coordinadores y diseñar planos con señalización apropiada. También se incluyeron factores como las amenazas que pueden generar emergencias y los recursos para atenderlas como el botiquín, las camillas y los extintores. El comité de emergencia quedó conformado por personas que conocieran la dinámica de la entidad y las empresas vecinas, así como sus instalaciones. El fin era ejecutar planes normativos y operativos referentes a la preparación en caso de emergencia, realizar reuniones periódicas para mantener permanentemente actualizada la guía de evacuación, establecer contacto con las directivas de la empresa, los grupos de apoyo y, con la ayuda externa, activar la cadena de llamadas y elaborar y presentar informes de las actividades a las directivas. Así mismo, se creó un grupo de brigadistas que conocieran los riesgos generales y particulares presentes en las diferentes áreas de la empresa, que verificaran que el equipo contra incendios estuviese en buenas condiciones, y aseguraran la disponibilidad de vías de evacuación y una señalización apropiada de los equipos de supervivencia. La buena ejecución y prevención del grupo de brigadistas permitirá que, en momento de presentarse una emergencia, estén calificados para definir límites en la zona de riesgo e informar al grupo de evacuación, servir como grupo de apoyo de los organismos externos, ubicar los posibles heridos y personas afectadas e informar al grupo de evacuación y, en lo posible, ayudar a evacuar a las personas heridas de la zona de peligro. 33

34 Los agentes del equipo de coordinadores deben inspeccionar el área y chequear el número de personas presentes, con el fin de dirigir su salida del área bajo su responsabilidad. Es necesario que estos agentes tengan presente el punto de encuentro y que verifiquen que todas las personas a su cargo hayan salido. Finalmente, es necesario que el coordinador reporte al jefe de brigada la situación de las personal a su cargo y las condiciones anómalas que detectó durante la evacuación del grupo. Este equipo tendrá como distintivo un chaleco reflectivo que identifica a los brigadistas como a los coordinadores. También cuentan con una cadena de llamadas para casos de emergencia, ya que cada una de las personas que pertenecen al grupo del plan de emergencia debe tener los teléfonos del resto del equipo y de las partes que ayudan. Se definió un punto de encuentro PE cuyas características son: un sitio libre de cables, a 25m de donde ocurre la emergencia y donde no se formen aglomeraciones. También se debe ubicar el centro de atención y clasificación de heridos CACH y un puesto de mando unificado PMU. Es importante que las empresas cuenten con sistema de alerta y alarma. Las recomendaciones son que la alerta sea intermitente y la alarma sea un sonido continuo. Alerta quiere decir que se ha detectado una emergencia, que se deben suspender las actividades y prepararse para la evacuación. La alarma indica que se debe evacuar inmediatamente y dirigirse al punto de encuentro. El sistema de alerta y alarma utilizada por la empresa del estudio es vía telefónica, y consiste en que una persona marca el código 1001 para activar inmediatamente el altavoz en todos los teléfonos que no estén ocupados por alguna persona. El sistema de alarma funciona similar al sistema de alerta pero con el código 1002 y todas las llamadas que estén en proceso se caerán. Después de tener estructurado el plan de evacuación se realizó una capacitación para entrenar a todo el personal de la empresa, incluyendo a coordinadores y brigadistas, para instruirlos sobre los pasos a seguir en caso de una emergencia. Todo esto se puede realizar con la ayuda de la ARP a la que la empresa esté afiliada. Antes de realizar el simulacro la empresa debe estar completamente señalizada, indicando las rutas de evacuación, las salidas de emergencia y los extintores y su clase. En el simulacro del plan de evacuación de la empresa se siguió el siguiente procedimiento: avisar de un conato de incendio; en ese momento se indica que se deben apagar los equipos, y luego dar la orden de evacuar a todo el personal; ese proceso de muestra en la Fig. 1. Fig. 1. Pasos a seguir en el simulacro de evacuación 2.3 Panorama de riesgo La persona encargada de la realización del panorama de riesgo de una empresa debe trasladarse a todas las áreas, y observar muy bien los peligros a los que están expuestos. Se evaluaron factores físicos, químicos, biológicos, mecánicos, eléctricos, físico-químicos, ergonómicos, psicolaborales, humanos, públicos, locativos y de insalubridad, con el fin de encontrar una solución para contrarrestarlos [10]. Cada uno de esos factores se subdivide en otros que se localizan dependiendo de la actividad económica de la empresa. Existe un cuadro avalado por la ARP donde se realiza una evaluación a cada uno de los riesgos encontrados y que indica la probabilidad de ocurrencia de cada uno y sus consecuencias. A partir de ese cuadro se determina si el riesgo es trivial, moderado, importante o intolerable, y se toman las medidas necesarias para prevenirlo o mitigarlo. La Fig. 2 muestra la clasificación de los riesgos según su ponderación. Esta matriz tiene un nombre en cada cuadro, que es una manera de calificar desde el riesgo más trivial, que es el más bajo, hasta el más intolerable que es el más alto y por dónde se debe empezar a trabajar. Fig. 2. Matriz de valoración de riesgos Fuente: ARP SURA Estos factores de riesgo se dividen en dos grupos: Factores de riesgo higiénico, a los que es posible abordar, mediante una planificación preventiva, y 34

35 garantizar la eliminación, reducción y control de la exposición a agentes químicos, físicos y biológicos. Para un mejor análisis de estos riesgos se recomienda seguir los siguientes pasos [11]: 1. Identificar dónde se determinan todos los posibles agentes contaminantes 2. Localizar de manera específica dónde se originan, por dónde se propagan, quiénes son todos sus posibles receptores y en qué momento se presenta durante la jornada laboral 3. Cuantificar que tan intensas son las exposiciones de los receptores para definir estos valores. Es necesario contar con un equipo que permita medir o cuantificar 4. Realizar una evaluación. Teniendo los parámetros estipulados es preciso comparar los resultados y observar los casos que necesitan más atención 5. Planificar la actividad preventiva, es decir, establecer las acciones necesarias con el fin de eliminar o minimizar los riesgos. 2.5 Análisis de Resultados Después de realizar todo el proceso de documentación y de implementar cambios se alcanzaron grandes mejoras en el diseño de los puestos de trabajo, las incapacidades rebajaron notablemente, como se puede observar en las Fig. 3 y 4, al igual que el ausentismo por parte del personal. Las Fig. 3 y 4 muestran el análisis de accidentalidad desde el 2009 hasta el Fig. 3. Días de incapacidad 2009 Factores de riesgos de seguridad. Este grupo se enfoca más en las condiciones materiales que puedan ocasionar un accidente de trabajo. El proceso para el estudio de estos factores es el mismo que se mencionó anteriormente, la única diferencia es que se realiza un análisis de todo lo relacionado con el lugar de trabajo, las máquinas, los equipos de trabajo, los riesgos eléctricos y su manipulación. En el entorno de trabajo suelen presentarse al mismo tiempo varios factores de riesgo, de forma que es posible potencializar sus efectos nocivos. Un porcentaje muy elevado de los accidentes que se producen en el entorno laboral son consecuencia de fallos de seguridad relacionados con las máquinas y equipos, y por esto es necesario que las máquinas, al momento de adquirirlas, cumplan con las especificaciones necesarias [12]. 2.4 Partes interesadas Al documentar la norma se llega a una instancia en la cual es importante pensar en quienes son los proveedores, contratistas, clientes, en el cumplimiento de los requerimientos de calidad que se exigen, la calidad de la materia prima que se transforma y las necesidades del cliente. Al tener estas pautas claras se realiza todo el estudio de proveedores, se analiza qué tanto cumplen con los requerimientos de calidad y si puede haber una opción de cambio o no. Una vez certificada la empresa queda catalogada como una entidad encaminada a la mejora continua que tiene como prioridad la salud física y mental de todos sus trabajadores. Fig. 4. Días de incapacidad 2010 En el transcurso de 2010 el grado de ausentismo disminuyó casi en un 30%, lo que permite concluir que la empresa sí está cumpliendo con la política de salud ocupacional. Uno de los principales problemas se presentó al momento de promover la política de salud ocupacional entre todo el personal, las estrategias de socialización inicialmente no fueron efectivas, ya que visitar a todos los trabajadores varias veces resultaba complicado. Esto ocasionó que al principio muchos empleados no supieran cuál era el objetivo principal de la política. Por consiguiente, se recomienda buscar diversas estrategias de difusión de la política de tal forma que se pueda llegar a todos y cada uno de los empleados de la compañía. 3. CONCLUSIONES Se logró un resultado exitoso en cuanto al objetivo principal de la empresa con relación al proceso de documentación de la norma ISO 18001, ya que permitió un análisis profundo de la seguridad de los trabajadores. La implementación del proceso contribuyó a la disminución de accidentalidad. 35

36 Para lograr la certificación de la Norma OHSAS en la empresa, fue necesario contar con el apoyo y compromiso de los administrativos, la alta gerencia y de los empleados, ya que sin este tipo de colaboración, no se logran los resultados esperados Se realizó el plan de evacuación pero quedaron varios aspectos por mejorar, entre ellos la alarma de aviso no fue la correcta. Es necesario instalar una alarma más fácil de reconocer. Por otro lado, el mayor problema que se presenta para una adecuada implementación es la comunicación con los empleados, y la falta de compromiso de la alta gerencia hasta los trabajadores, por lo cual resulta conveniente trabajar para mejorar este aspecto. REFERENCIAS 1. A. Rodriguez, Éxito Empresarial: Cambios en OHSAS CEGESTI, San José de Costa Rica, Disponible en: blicacion_68_080808_es.pdf. Visitado en marzo de Centro de Documentación ARP Sura, Identificación y control de los factores de riesgo en el lugar de trabajo. Disponible en: view=article&id=558&catid=28:factores-deriesgo&itemid=46. Visitado en marzo Instituto Colombiano de Normas Técnicas, Norma Técnica colombiana OHSAS 18001, Sistemas de Gestión en Seguridad y Salud Ocupacional, octubre ARP Sura, Modelo para la elaboración del Programa de Salud Ocupacional, Medellín, Ley 9 de Enero 24 de 1979 por la cual se dictan Medidas Sanitarias, Congreso de La República, Bogotá, Resolución 2400 de Mayo 22 de 1979 por la cual se establecen algunas disposiciones sobre vivienda, higiene y seguridad en los establecimientos de trabajo, Ministerio de trabajo y Seguridad Social, Bogotá, Resolución 8321 de Agosto 4 de 1979 por la cual se dictan normas sobre Protección y Conservación de la Audición de la Salud y el bienestar de las personas, por causa de la producción y emisión de ruidos, Ministerio de Salud, Bogotá, Resolución 1016 de Marzo 31 de 1989 por la cual se reglamenta la organización, funcionamiento y forma de los Programas de Salud Ocupacional que deben desarrollar los patronos o empleadores en el país. Ministerios de Trabajo y Seguridad Social y Salud, Bogotá, Ministerio de Trabajo y Seguridad Social, Modelo de Evaluación del Programa de Salud Ocupacional, Bogotá, L. M. Azcuénaga L. Guía para la implementación de un sistema de prevención de riesgo laboral, Fundación Confemetal, Madrid, F. A. Valencia B, Ley 100: Guía metodológica de consulta, Ministerio de Salud, Bogotá, C. R. Cavassa, Seguridad industrial: enfoque integral, México: Ed. Limusa,

37 CONTROL STABILITY OF ROBOT BY MEANS ULTRASONIC SIGNALS CONTROL DE ESTABILIDAD DE UN ROBOT POR MEDIO DE SEÑALES ULTRASÓNICAS Wilmar G. Monsalve Universidad de San Buenaventura Medellín Harby A. Muñoz Universidad de San Buenaventura Medellín David A. Álvarez Universidad de San Buenaventura Medellín Sergio F. Ardila Universidad de San Buenaventura Medellín Andrés M. Cárdenas T. Universidad de San Buenaventura Medellín (Tipo de Artículo: INVESTIGACIÓN. Recibido el 11/11/2010. Aprobado el 05/12/2010) Abstract Currently there are various methods used for measuring an inclination of a body with respect to a reference or a fixed frame, but the problem is that these carry costs, this being a limiting factor for the development of science when you have low income economic. At this point it becomes relevant where the research and development in technology led to dig in this article, since the purpose of this project is to provide stability to an autonomous robot one axis, for which becomes necessary, the implementation of a tilt control system. The tilt detection system developed is based on ultrasound as the primary tool for measuring distance between two points equidistant from the central axis of the robotic platform, which is inherently unstable. With this new method has been established tilt magnitudes of the order of fractions of degrees, as the piezoelectric transducers in conjunction with electronics implemented, provides greater precision in the measurements. Keywords: Inclination, piezoelectric, robotics, transducer. Resumen Actualmente son diversos los métodos utilizados para la medición de una inclinación de un cuerpo respecto a una referencia o un marco fijo, pero el problema radica en los costos que estos acarrean, siendo este un factor limitante para el desarrollo científico cuando se dispone de bajos recursos económicos. En Este punto es en donde se hace relevante la investigación y el desarrollo en materia de tecnología llevado a cavo, en este articulo, ya que la finalidad del presente proyecto, consiste en proporcionarle estabilidad a un robot autónomo de un solo eje, para lo cual se hace necesario, la implementación de un sistema de control de inclinación. El sistema de detección de inclinación desarrollado, está basado en el ultrasonido como herramienta principal de medición de distancia entre dos puntos equidistantes del eje central de la plataforma robótica, la cual es inestable por naturaleza. Mediante este nuevo método, se ha logrado establecer magnitudes de inclinación del orden de fracciones de grados, ya que los transductores piezoeléctricos en conjunto con la electrónica implementada, brinda gran precisión en las medidas realizadas. Palabras clave: Inclinación, piezoeléctrico, robótica, transductor. 1. INTRODUCCIÓN El presente proyecto se encuentra ubicado en un contexto investigativo y aplicativo de ciencias tales como control automático (robusto), robótica móvil, maquinas eléctricas y física de ondas. La idea principal del proyecto, consiste en implementar un sistema de detección de inclinación por un método no convencional, que se acomode al prototipo de plataforma robótica implementada [1] [8], para la posterior aplicación de dos tipos diferentes de técnicas de control robusto tales como LQR y LQG/LTR, con el fin de identificar cual es la técnica de control más apropiada para el proyecto en desarrollo. En este punto de la investigación es en donde se toma como recurso principal las propiedades de la física de ondas, más específicamente ondas de sonido, ya que los sensores utilizados son transductores piezoeléctricos, con los cuales se realizaran las mediciones de distancia de los extremos de la plataforma con el fin de establecer el índice de inclinación de la plataforma en todo momento [9]. 2. DESARROLLO El desarrollo del proyecto está basado en la medición de la distancia de los extremos de la plataforma, la cual es inestable, ya que solo cuenta con un solo eje central de apoyo, todo esto con el fin de establecer el índice de inclinación de un extremo de la plataforma con respecto al otro. Lo cual se realiza con dos módulos de transductores piezoeléctricos Tx y Rx, ubicados en cada extremo, esto con el fin de tomar el tiempo de vuelo Tv [2], de un tren de pulsos emitidos sincrónicamente por los sensores ultrasónicos Tx. El procesamiento del cálculo de la distancia de los extremos de la plataforma respecto a la superficie de apoyo y el control de los actuadores finales dos motores DC, está a cargo del microcontrolador PIC16F877A de Microchip [4]. La metodología general se observa en la Fig. 1. W. G. Monsalve, H. A. Muñoz, D. A. Álvarez, S. F. Ardila y A. M. Cárdenas T. Control de estabilidad de un robot por medio de señales ultrasónicas. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

38 utilizado 400SR160, es de 40 KHz, por lo que el uso de una frecuencia diferente para este transductor, daría como resultado bajas amplitudes de voltaje en los receptores. Fig. 1. Metodología general Otro aspecto importante que debe ser mencionado, es que los materiales piezoeléctricos tienen una etapa de resonancia, durante un corto periodo de tiempo, por lo cual se utilizan parejas de transductores independientes, con el fin que la etapa de resonancia en el Tx no afecte la señal de RX. 2.1 Piezoelectricidad Existen cristales que al ser sometidos a una tensión, experimentan distorsiones en su superficie debido a que las cargas positivas y negativas, por física natural tratan de disponerse a sí mismas. La reacción piezoeléctrica de un material depende directamente de su simetría, así como de la orientación del cristal respecto a sus ejes cristalográficos. Cuando se aplica presión sobre las caras de un cristal con propiedades piezoeléctricas, es posible generar cargas eléctricas positivas en una superficie y negativas en la opuesta. El efecto inverso, cuando se aplica una tensión eléctrica, el cristal se distorsiona dependiendo directamente de la magnitud del campo eléctrico y de la frecuencia de este; si desaparece este campo eléctrico, también desaparece dicha distorsión. Aprovechando la propiedad piezoeléctrica de algunos materiales, se diseñan transductores que permiten convertir pulsos eléctricos de alta frecuencia en una onda sonora de la misma frecuencia y viceversa. El transductor elegido para el desarrollo del proyecto es el 400SR160, cuyas características se observan a continuación. TABLA 2 Características del 400SR160 Característica Magnitud Unidad de medida Frecuencia de 40 Kilo Hertz funcionamiento Voltaje Máximo 20 Volts (Vrms) Temperatura de Grados Celsius operación Ángulo de emisión Cónico 25 Grados angulares Es de suma importancia mencionar que, cuando se utiliza un transductor piezoeléctrico, solo se debe emplear la frecuencia de trabajo recomendada por el fabricante de dicho transductor, ya que el transductor forma parte del mismo circuito oscilador, siendo el cristal el elemento quien determina la frecuencia de resonancia, que a su vez estabiliza la frecuencia de las oscilaciones eléctricas. Como se puede observar en la Fig. 2, la frecuencia de máxima amplitud para el transductor Fig. 2. Respuesta en frecuencia del emisor 2.2 Topología de trabajo La base teórica y de funcionamiento de la topología de trabajo se fundamenta en el tiempo de vuelo de un tren de pulsos. Para esta topología se utilizara un par de cristales Rx y Tx en cada extremo de la plataforma (derecha e izquierda), de esta forma un tren de pulsos será emitido de forma sincrónica por los dos Tx, y dependiendo del nivel de inclinación, hacia la derecha o hacia la izquierda, el tren de pulsos regresara primero a uno de los dos Rx, ya que recorrerá una menor distancia [3]. Ver Fig. 3. Fig. 3. Topología de trabajo La distancia de cada de cada Rx respecto a la superficie de apoyo de la plataforma cuando esta se encuentra en perfecto equilibrio es de aproximadamente 8cm, por lo que el tren de pulsos de 40KHz hará un recorrido de 16cm, teniendo presente que la velocidad del sonido es de aproximadamente 343m/s a 20ºc, el tiempo de vuelo del tren de pulsos es de µSeg aproximadamente [6]. 38

39 Por conveniencia y funcionalidad del sistema de detección de inclinación, solo se enviara un tren de 4 pulsos a 40 KHz, como se ve en la Fig.4, ya que se debe dar un tiempo muerto a los Tx para que el microcontrolador haga el correspondiente procesamiento de las señales que ingresan a el y determine así el nivel de inclinación en ese momento. Fig. 4. Tren de pulsos a 40 KHz El suministro de voltaje para todo el diseño electrónico, estará a cargo de dos baterías 9 V á 170 ma. 2.3 Instrumentación electrónica para los dos Rx Dado el echo de trabajar con una onda sonora a alta frecuencia, es importante diseñar una buena etapa de instrumentación electrónica para cada Rx [5], dado los altos niveles de ruido presente en el ambiente, los fasos pulsos en los Rx producto de los ecos de la onda sonora reflejada en la superficie de apoyo, todo esto sumado al echo que es absolutamente necesario digitalizar la señal de los RX para que con esto el microcontrolador disponga de señales claras, con las cuales pueda determinar con mayor precisión los tiempos de vuelo de ambos extremos de la plataforma. Amplificador de instrumentación La primera etapa de la electrónica de acondicionamiento implementada para ambos Rx, consta de un amplificador de instrumentación [11] Fig.5. Ganancia del amplificador de instrumentación: Vout 2R1 R3 V1 2 V 1 Rg R2 (1) Donde Vout es el voltaje de salida, y R1, R2. R3 y Rg se da en Ohm. La ganancia deseada para el amplificador de instrumentación es de 50, ya que la señal original 346 mv, multiplicada por un factor de ganancia de 50 da como resultado un valor máximo de voltaje de ±17,3 V-pp. 2R1 R3 V 1 50 Rg R2 Fig.6. Rx sin amplificar (2) Conociendo el valor de la ganancia deseada, se despeja una de las variables Rg, y suponemos su valor Rg = 5,6 KΩ, y las demás variables de la ganancia las hallamos de tal forma que se aproximen a valores comerciales de resistencia para así obtener un valor de ganancia cercano al deseado. TABLA 2 Parámetros del Amplificador de instrumentación Resistencia Valor en Ohm Rg R1 R2 R3 5,6KΩ 47 KΩ 3,3KΩ 10 KΩ Reemplazando estos valores de resistencias en (2) se obtiene un valor final de ganancia de: 2* 47K 10K V 1 53,89 (3) 5,6K 3,3K Fig. 5. Amplificador de instrumentación Esta etapa es absolutamente necesaria, ya que la señal de ultrasonido recibida por ambos Rx es de uno cuantos milivoltios, como puede verse en la Fig.6, y es necesario amplificarla. Amplificador rectificador Después de amplificar la señal Rx, se pasa por un rectificador Fig.7, con el propósito de eliminar la fase negativa, ya que se pretende establecer un comparador de voltaje en la fase positiva, por lo cual la fase negativa es innecesaria Fig.8. 39

40 importancia detectar el primer pulso de llegada en ambos Rx, pues con este pulso es con el cual se determina el tiempo de vuelo contado desde el instante de la emisión de los cuatro pulsos a 40 KHz, ver Fig.10. Fig. 7. Amplificador rectificador El echo de no detectar la señal de Rx en el primer pulso, acarrearía imprecisiones en la medición del tiempo de vuelo real de cada modulo Tx-Rx, lo cual se vería manifestado finalmente en un calculo erróneo de la inclinación en dicho momento, y por consiguiente se ejercería un control inadecuado sobre los actuadores finales, ocasionando una mayor inestabilidad. Fig. 8. Rectificador con ganancia unitaria La ganancia del amplificador rectificador está determinada por la siguiente formula [11]. Vo Rf V Vi Ri Para este caso solo se desea una ganancia unitaria, pues con la ganancia entregada por el amplificador de instrumentación es suficiente, por esto se hará. Rf Ri 10K Comparador de voltaje Como se puede ver en la Fig.9, el primer pulso de llegada de la señal rectificada es de una amplitud muy pequeña, que solo alcanza a superar 1 V Máx. 1.2 V. Fig. 10. Comparador de voltaje Como se puede ver en la Fig. 11, la señal que sale del rectificador, ingresa al comparador de voltaje por la terminal positiva, y a la terminal negativa se establece el nivel de comparación de 500 mv, mediante un divisor resistivo de voltaje, esto dará como resultado, que cada que el voltaje de la terminal positiva supere al voltaje de la terminal negativa, el amplificador entre en saturación, dando como resultado a la salida el máximo voltaje positivo de alimentación [12]. Fig. 11. Comparador de voltaje en Spice Fig. 9. Primer pulso del rectificador Para lo cual fijamos un comparador de voltaje en un umbral de 500 mv, ya que es de vital Monoastable El uso de un monoastable en la etapa de instrumentación y digitalización de los Rx, se hace necesario, ya que la señal final que le será 40

41 entregada al microcontrolador debe ser lo mas clara y estable posible durante un tiempo mínimo para que sea detectada, condiciones que no ofrece la señal entregada por el comparador de voltaje, la cual es fluctuante, con un periodo aproximado de 25µseg. El monoastable utilizado para generar un pulso estable es el DM74121 Fig. 12, el cual se activara ante el primer flanco de subida generado por el comparador de voltaje [13]. El tiempo de activación esta determinado por una constante de tiempo mayor al tiempo de funcionamiento del comparador de voltaje Fig µseg, ya que de establecerse un tiempo menor de activación para el monoastable, tendríamos dos o más disparos de este dispositivo en un ciclo completo de trabajo del comparador de voltaje, por lo cual se establece un tiempo aproximado de activación del monoastable de 1.5 mseg Fig. 13, tiempo más que suficiente para que el microcontrolador identifique esta señal como un nivel lógico alto y no se tengan varios disparos en un mismo ciclo de trabajo. Fig. 12. Monoastable DM Establecimiento del nivel de inclinación Luego de transformar la señal primaria de cada RX la cual asemejaba más a un ruido, en un pulso de una duración finita y magnitud estable, se procede a establecer un índice de inclinación, a partir de los tiempos de vuelo medidos en cada extremo de la plataforma, mediante el microcontrolador PIC16F877A [11]. Existen dos aspectos muy relevantes en el establecimiento del índice de inclinación; el primero consiste en saber cuál de los dos monoastables se activa primero, ya que se tendrá conocimiento de hacía que lado esta inclinada la plataforma, el segundo aspecto importante para determinar la inclinación, consiste en conocer muy bien cada tiempo de vuelo y saber la diferencia entre ellos. En el instante en el cual se emiten los cuatro pulsos a 40 KHz, se inician dos contadores, los cuales estarán encargados cada uno, de realizar la medición del tiempo de vuelo de cada extremo de la plataforma robótica, cada contador se detendrá en el instante en el cual se active el monoastable asignado a este contador, y posteriormente se guardara este registro de conteo. Con este registro de conteo y mediante geometría básica se hallara el ángulo de inclinación. El disparo de los dos monoastables asignados a cada Rx se puede observar en la Fig. 14, notándose entre ellos una pequeña diferencia en el tiempo de llegada. El tiempo de activación del monoastable esta determinado por la siguiente ecuación: Donde t K * R * C w t w se da en nano segundos, Ohm, C en pico Farad, y una constante R en Kilo K 0,7 t 0.7*22K * nF 1' nSeg w Fig. 14. Monoastable uno Vs Monoastable dos Fig. 13. Activación del monoastable por flanco de subida del comparador de voltaje Cálculo de la inclinación Como se había mencionado al principio del documento, la distancia de cada modulo Tx-Rx asta la superficie de apoyo, cuando la plataforma se encuentra en perfecto equilibrio es de 8 cm, y la separación de los módulos Tx-Rx del eje central asta cada extremo es de 12 cm. La referencia de tiempo a seguir esta determinada por el tiempo de vuelo, cuando la plataforma se encuentra balanceada, es decir que cada extremo está a 8 cm de la superficie de apoyo. 41

42 V d (3) t Donde V es la velocidad del sonido (343 m/seg a 20 ºc) y se da en metros sobre segundos, d es la distancia en metros y t es el tiempo en segundos. inclinación para este caso. La variación de cada extremo con respecto a la posición de equilibrio es de: cm 8cm 7,632cm 8,367cm 8cm 0, 367 De (3) t d V (4) La distancia real que recorrerá el pulso de ultrasonido es de dos veces la distancia de separación entre los transductores piezoeléctricos y el piso, por lo cual la distancia utilizada para calcular el tiempo de referencia es de 0.16 mts. Reemplazando en (3): Tref 0.16mts uSeg 343mts / Seg De la Fig. 14 tomamos esa diferencia de tiempo entre la activación de un monoastable con respecto al otro y hallamos los tiempos de vuelo para cada uno. Es importante notar que el monoastable que se activo primero para este ejercicio, fue el correspondiente al Rx 2, lo cual dice de entrada que la plataforma esta inclinada hacia la izquierda, y que la diferencia de tiempo con respecto a la activación del monoastable asignado al Rx 1 fue de µseg Tdif tiempo de diferencia entre la llegada del primer Tv respecto al segundo. Conociendo que el tiempo de referencia es de µseg, el cual por simetría de diseño de la plataforma siempre estará ubicado en la mitad de la diferencia de ambos tiempos de vuelo, se procede a hallar Tv1 y Tv2. Tv1, Tv2 Tref Tdif Tdif / 2 / 2 (4) El término, se le restara al primer Tv en llegar y se le sumara al segundo Tv. Fig. 15. Diagrama de inclinación Con esta variación en las distancias de los extremos y conociendo con anterioridad que la separación respecto al eje central es de 12 cm, hallamos una relación geométrica para α, como se observa en la Fig. 16. Fig. 16. Diagrama de α Por geometría general, se deduce que la relación entre el cateto opuesto sobre la hipotenusa es: a sen b Reemplazando en (5), se halla a α. sen 1 0,367cm º 12cm (5) 42,81uSeg / 2 487, useg Tv1 466,47uSeg ,81uSeg / 2 445, useg Tv2 466,47uSeg 065 De (3) hallamos la ecuación para establecer ambas distancias d1, d2. V * / 2 2d V * Tv d Tv 343mts / seg * 487,875uSeg d1 0, 08367mts 2 343mts / seg * 445,065uSeg d2 0, 07632mts 2 Con estas distancias de cada extremo de la plataforma respecto a la superficie de apoyo y con ayuda de la Fig. 15, se determinara el ángulo α de Fig. 17. Diagrama de flujo 42

43 Luego de que finalmente se halla el ángulo de inclinación para dicho momento de la captura de datos, se debe hacer la activación de los actuadores finales, dos motores de corriente continua DC, durante el tiempo suficiente para la corrección de la inclinación detectada. Programa general de operación para el PIC 16F877A El procesamiento de las señales de Rx, análisis de los tiempos de vuelo, calculo de la inclinación y activación de los actuadores finales, estará a cargo del microcontrolador PIC16F877A [10]. El cual mediante el programa que se describe a continuación ejerce el control necesario y adecuado para el funcionamiento de todo el hardware implicado en este diseño, Fig. 17. CÓDIGO DE PROGRAMACIÓN declaración de variables. i var byte J var word K var word C1 var word C2 var word RESTA1 VAR WORD RESTA2 VAR WORD TRISD.5 = 1 TRISD.6 = 1 TRISD.7 = 0 ' 'Frecuencia de 40 Khz TIME: k = 0 j = 0 C1 = 0 C2 = 0 I=0 repeat emisión de los 4 pulsos a 40 KHz HIGH PORTD.7 'pone en alto el puerto nop LOW PORTD.7 'pone en bajo el puerto nop i = i + 1 UNTIL i > 3 'pauseus 1000 ' 'leer RECEPTORES WHILE J = 0 AND K = 0 'Conteo de ambos tiempos e vuelo IF PORTD.5 <> 1 THEN C1 = C1+1 ELSE J = C1 ENDIF IF PORTD.6 <> 1 THEN C2 = C2+1 ELSE K = C2 ENDIF WEND J = C1 K = C2 ' 'DIFERENCIA 'se diferencian los contadores para saber si un tiempo de vuelo es mayor de un lado que del otro IF J > K THEN 'HIGH PORTE.0 RESTA1 = J - K ENDIF IF K > J THEN 'HIGH PORTE.1 RESTA2 = K - J ENDIF ' 'DURACION PWM 'Niveles de diferencias para saber la duración de activación de los motores 'MOV_IZQ mover a la izquierda IF RESTA1 = 2 THEN HIGH PORTE.0 PAUSE 100 LOW PORTE.0 ENDIF IF RESTA1 = 3 THEN HIGH PORTE.0 PAUSE 150 LOW PORTE.0 ENDIF IF RESTA1 = 4 THEN HIGH PORTE.0 PAUSE 200 LOW PORTE.0 ENDIF IF RESTA1 = 5 THEN HIGH PORTE.0 PAUSE 250 LOW PORTE.0 ENDIF 'MOV_DER mover a la derecha IF RESTA2 = 2 THEN HIGH PORTE.1 PAUSE 100 LOW PORTE.1 ENDIF IF RESTA2 = 3 THEN HIGH PORTE.1 PAUSE 150 LOW PORTE.1 ENDIF IF RESTA2 = 4 THEN HIGH PORTE.1 PAUSE 200 LOW PORTE.1 ENDIF IF RESTA2 = 5 THEN HIGH PORTE.1 PAUSE 250 LOW PORTE.1 ENDIF GOTO TIME END 2.5 Electrónica de control para los actuadores finales Los actuadores finales son dos motores de corriente continua, los cuales funcionan a un voltaje nominal de 5,9 V. Cada uno contiene una caja de engranajes la cual transforma parte de la velocidad, en el torque necesario para mover el peso total de la plataforma [7]. 43

44 Los motores fueron elegidos por su rápida reacción a voltajes transitorios de alimentación, debido a que la oportuna corrección de la inclinación detectada recae en la rapidez con la que se desplacen las llantas sujetas a los dos motores DC. El control de giro de ambos motores se hace con el puente H L293D, en la Fig.18, se puede observar el diagrama y la tabla de función lógica para el control de dirección de ambos motores. El puente H L293D, cuenta con dos módulos como los mostrados en la Fig.18. Cada uno estará encargado de controlar un motor asignado, suministrándole la tensión de 5,9 V cuando el microcontrolador active los pines 1 y 9 enable [14]. Fig. 18. Control bidireccional de motor DC 3. TRABAJOS FUTUROS Como trabajo futuro, se plantea la implementación de diferentes tipos de controladores, con el fin de establecer cual es el controlador óptimo para el prototipo planteado. También se sugiere la implementación de otros tipos de sistemas de detección de inclinación, con el fin de ser usados en el prototipo de plataforma implementado, para con esto hacer una comparación de la eficiencia del método desarrollado, el cual es novedoso y poco convencional. 4. CONCLUSIONES La utilización de transductores piezoeléctricos, es una alternativa confiable en calidad y favorable en costos, para realizar mediciones de inclinación para el prototipo propuesto. El método implementado para la medición de inclinación, por medio de ultrasonido da como resultado gran precisión en las medidas realizadas, ya que se puede establecer la inclinación en fracciones de ángulos, en cortos periodos de tiempo. El diseño electrónico, para el acondicionamiento de las señales Rx, proporciona confiabilidad sobre el índice de inclinación obtenido en cada medición realizada. control de ambos motores DC, con lo cual se hace siempre una oportuna corrección de la inclinación detectada. AGRADECIMIENTOS Los autores reconocen las contribuciones del Ingeniero Electrónico Andrés Mauricio Cárdenas Torres de la UAM, por su aporte en el área del control robusto así como metodológico y su constante apoyo en el desarrollo del proyecto. También se hace mención del Ingeniero electricista Camilo Flórez de la UN, por su aporte en el área de la electrónica, pues siempre a sido un gran referente en cuanto al diseño electrónico. REFERENCIAS 1. D. Muñoz, N. A. Andrade, C. Londoño O. Diseño y construcción de un robot móvil orientado a la enseñanza e investigación. Ingeniería y Desarrollo, No. 19, pp , ene-jun C. Carvajalino y C. Manjarres, Medición de nivel por ultrasonidos, Electrónica y computadores, No. 29, pp J. Robby G., Detector Ultrasónico de Movimiento, Electrónica y Computadores, No. 76, pp J. Iovine, PIC Microcontroller Basic Compilers, Poptronics, Vol. 2, No. 7, pp , Sedra y K. C. Smith, Circuitos Microelectrónicos. México: Mc Graw Hill, R. A. Serway, Física para Ciencias e Ingeniería, vol. 2, México: Cengage Learning, S. Segui C., Electrónica de potencia. México: Alfaomega, S. S. Ge, y F. Lewis, Autonomous mobile robots: sensing, control, decision making and applications. USA: Taylor & Francis, H. R. Everett. Sensors for mobile Robots: Theory and application. Canada: A K Peters, J. M. Angulo U. Microcontroladores "PIC". Diseño practico de aplicaciones. España: McGraw-Hill, Fairchild Semiconductor, LF353 datasheet, Amplificador Operacional Dual (JFET), en: LF353.pdf, noviembre de ST Microelectronics, LM311 datasheet, VOLTAGE COMPARATORS, en: noviembre de Fairchild Semiconductor, DM74121 datasheet, One-Shot with Clear and Complementary Outputs, en: /datasheet/fairchild/dm74121.pdf, noviembre de Texas Instruments, L293D datasheet, Quadruple Half-H Drivers, en: noviembre de La correcta elección de los actuadores finales, permite una rápida reacción en el sistema de 44

45 IMPLEMENTATION OF A NEURAL NETWORK FOR INTRUSION DETECTION IN A TCP/IP NETWORK IMPLEMENTACIÓN DE UNA RED NEURONAL PARA LA DETECCIÓN DE INTRUSIONES EN UNA RED TCP/IP David Herrera A. Helber A. Carvajal C. Universidad de Antioquia herreradavid@gmail.com Universidad de Antioquia aleph7h@gmail.com (Tipo de Artículo: INVESTIGACIÓN. Recibido el 09/11/2010. Aprobado el 03/12/2010) Abstract This article shows how to design a neural network to detect the anomaly connections of the NSL- KDD data set. A reduction of the input variables is used and is shown how to obtain the best network parameters through different tests. Keywords: NSL-KDD, Neural Networks, MSE, supervised machine learning, computer security. Resumen En este artículo se muestra como diseñar una red neuronal para detectar las conexiones anormales dentro del set de datos NSL-KDD. Se usa una reducción de variables de entrada, y se muestra como se obtienen, mediante diferentes pruebas, los mejores parámetros de la red. Palabras Claves: NSL-KDD, redes neuronales, MSE, detector de intrusiones, aprendizaje supervisado, seguridad informática. 1. INTRODUCCIÓN A medida que las personas se involucran en el mundo digital, la seguridad informática va adquiriendo más importancia. Los malware o personas con amplios conocimientos en redes pueden vulnerar los derechos de otros usuarios, modificando o accediendo a su información mediante intrusiones. Esto hace pertinente el desarrollo de sistemas que permitan detectar de forma automática los sucesos riesgosos en una red y así tomar acciones para contrarrestarlos. Una intrusión es un acceso no autorizado a un sistema. El detector de intrusiones IDS, por sus siglas en inglés es una herramienta utilizada para dar protección a las redes de datos, en la que juega un papel impórtate trabajando en conjunto con un firewall. A diferencia del firewall, que detecta ataques provenientes de otras redes, el IDS puede hacerlo también en la red local. El objetivo es detectar los peligros antes que ingresen al sistema, como se observa en la Fig. 1. La detección de intrusiones mediante técnicas de minería de datos tiene ventajas frente a la basada en firmas, ya que la primera puede detectar variaciones del mismo tipo de ataque o detectar ataques no conocidos. En este trabajo se usaron redes neuronales para hacer la clasificación; a pesar de los resultados obtenidos, se puede pensar en implementarla con otras técnicas como las de clustering. Fig. 1. Esquema de un IDS 2. DESCRIPCIÓN DE LOS DATOS Para este trabajo se utilizó un conjunto de datos que está compuesto por capturas de ataques y tráfico normal provenientes de un escenario real. Muchos de los datos hacen referencia al encabezado de los protocolos y son de fácil adquisición, otros se tomaron a través de diversas herramientas. Se utilizó el set datos llamado NSL-KDD [1], que es una versión mejorada de kdd-cup 99 [2], en el que se mencionan varios tipos de ataque, algunos difíciles de identificar. Para hacer más efectiva la clasificación, en el nuevo set de datos se aumenta la proporción de ataques con un nivel de dificultad más elevado. Se redujeron los datos en un rango cercano al 22% pero se aumentó mucho la calidad de los mismos [3]. Existen 42 datos de entrada, algunos de los cuales son nominales o cualitativos, otros son números reales y otros valores binarios. Algunos ejemplos son: el servicio utilizado, las banderas y el número de bytes enviados, entre otros. Se limitó la salida a dos opciones: intrusión o tráfico normal Para este trabajo en particular, se usaron dos archivos, entrenamiento y prueba, cada uno con el 20% de la información [1]. 3. REDUCCIÓN DE VARIABLES DE ENTRADA Se realiza una reducción de variables para hacer que el problema, en especial el entrenamiento de la RNA, sea algo más simple [4]. D. Herrera A. y H. A. Carvajal C. Implementación de una red Neuronal para la detección de intrusiones en una red TCP/IP. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

46 La idea general fue identificar los datos que dan más información, usando para esto un índice asociado a cada descriptor llamado Information Gain Rate IGR. Se usó la técnica k-means, y se evaluó con cuál subgrupo se obtenía mejores resultados. Se disminuyó de 42 datos de entrada a sólo 14, los cuales se pueden observar en la Tabla 1 [4]. Los datos cualitativos que quedaron fueron: protocol type, service y la salida. El resto fueron datos continuos que no se modificaron. La función de transferencia en las neuronas de la capa oculta fue la sigmoide. En la Fig. 1 se observa una red neuronal con una capa oculta; se aclara que en la neurona de salida se utilizó un limitador duro que entrega -1 ó 1, esto con el fin de obtener un mejor resultado al calcular el error. 4. PROCESAMIENTO DE LOS DATOS Los datos provenientes del data set, aunque reducidos, no son aptos para el algoritmo de entrenamiento. Para solucionar este problema, se implementó un algoritmo que hiciera las siguientes tareas sobre los datos: Normalizarlos de -1 a 1 Mapear los nominales a numéricos Formatear de acuerdo con la herramienta Entrenamiento de la RNA Debe recalcarse que en el mapeo se deben estudiar diferentes técnicas para seleccionar el valor numérico de cada dato cualitativo, esto podría mejorar el rendimiento del algoritmo al realizar el entrenamiento. 5. ENTRENAMIENTO DE LA RNA Después de reducir y normalizar los datos, se procede a entrenar una RNA buscando un buen desempeño tanto en los datos de entrenamiento como en los de prueba. Los datos se dividieron en 3 partes: datos de entrenamiento, de prueba y de validación. Para el entrenamiento se utilizó el toolbox de Matlab para redes neuronales nntool y la librería FANN, pero se pudo utilizar cualquier toolbox o implementación que se considerara adecuada. Para el aprendizaje se utilizó el modelo supervisado Backpropagation propagación hacia atrás [5], con el que se realiza una corrección hacia atrás en los pesos, dependiendo del comportamiento de la red. Los parámetros definidos para su funcionamiento son los siguientes: Para el entrenamiento se utilizó el algoritmo de optimización de Levenberg-Marquardt que se encarga de minimizar numéricamente una función, en este caso el error. Para el aprendizaje se utilizó el algoritmo del gradiente descendente. Fig. 2. Red Multicapa (Una Capa Oculta) Como se mencionó anteriormente, existen 14 entradas y una salida con valor -1 ó 1, para indicar cuándo hay y cuándo no hay una intrusión a la red; además, se cuenta con la entrada artificial que permite obtener mejores resultados al entrenar; en la Tabla 1 se pueden observar las 15 entradas de la red neuronal. TABLA 1 Entradas de la red neuronal X 0 Entrada artificial (igual a 1) X 1 Dst host diff srv rate X 2 Logged in X 3 Dst host srv diff host rate X 4 Num failed logins X 5 Diff srv rate X 6 Destination bytes X 7 Root Shell X 8 Is guest login X 9 Urgent X 10 Service X 11 Dst host count X 12 Srv diff host rate X 13 Source bytes Protocol type X RESULTADOS OBTENIDOS Utilizando las funciones mencionadas en la sección anterior, se procede a realizar el entrenamiento variando parámetros como el número de capas ocultas y/o neuronas en una respectiva capa. En las figuras de la 3 a 7 se observan los resultados obtenidos con cada una de las redes probadas; se observa, además, las muestras analizadas con cada una de las redes, donde el valor 1 indica que se cometió un error en dicha muestra, mientras que 0 indica que no hubo error. Como función de rendimiento se utilizó el error cuadrático medio MSE. 46

47 Red Monocapa Error Errores al Realizar el Entrenamiento Error de Entrenamiento = % Entrenamiento Red Multicapa con dos capas ocultas; la primera con 8 neuronas y la segunda con 4. 1 Errores al Realizar el Entrenamiento Error de Entrenamiento = % Entrenamiento Error Muestras Errores al Realizar las Pruebas Error de Prueba = % 1 Prueba 0.5 Error Muestras Errores al Realizar las Pruebas Error de Prueba = % 1 Prueba Muestras Fig. 3. Resultados RNA Monocapa Red Multicapa con 4 neuronas en su capa oculta Error Error Errores al Realizar el Entrenamiento Error de Entrenamiento = % Entrenamiento Muestras Errores al Realizar las Pruebas Error de Prueba = % 1 Prueba Muestras Fig. 4. Resultados RNA Multicapa con 4 Neuronas en la Capa Oculta Red Multicapa con 15 neuronas en su capa oculta Error Error Errores al Realizar el Entrenamiento Error de Entrenamiento = % Entrenamiento Muestras Errores al Realizar las Pruebas Error de Prueba = % 1 Prueba Muestras Fig. 5. Resultados RNA Multicapa con 15 Neuronas en la Capa Oculta Error Muestras Fig. 6. Resultados RNA Multicapa con 8 Neuronas en la Primera Capa Oculta y 4 en la Segunda Red Multicapa con dos capas ocultas; la primera con 20 neuronas y la segunda con 8. Error Error Errores al Realizar el Entrenamiento Error de Entrenamiento = % Entrenamiento Muestras Errores al Realizar las Pruebas Error de Prueba = % 1 Prueba Muestras Fig. 7. Resultados RNA Multicapa con 20 Neuronas en la Primera Capa Oculta y 8 en la Segunda 7. ANÁLISIS DE LOS RESULTADOS En la Tabla 2 se presenta una comparación de los resultados obtenidos en cada una de las implementaciones TABLA 2 Comparación del Desempeño Tipo de Red Neuronas Neuronas Error Error Capa 1 Capa 2 Entrenamiento Prueba Monocapa % 9.2% Multicapa % 7.2% Multicapa % 3.7% Multicapa % 4.3% Multicapa % 3.1% Como se puede observar, los mejores resultados se obtienen con la RNA multicapa con 20 neuronas en la primera capa oculta y 8 en la segunda; en este entrenamiento se cometen errores en 257 de los 11270; mientras que en la 47

48 prueba se cometen errores en 176 de los 5635 datos. Además de esto la mejor relación entre datos de entrenamiento y de prueba se encuentra en la misma red RNA. Por otra parte, se puede observar que una red monocapa no satisface las necesidades ya que el error de entrenamiento y el de prueba son demasiado elevados. En la Figura 8 se observa la respuesta en cuanto al error cuadrático medio del mejor resultado obtenido. El problema de la dimensionalidad en los datos se debe solucionar extrayendo los descriptores menos relevantes; esto facilita el entrenamiento y la manipulación de los datos para la RNA. El ajuste de las funciones con que funcionará la RNA es de gran importancia; como se pudo observar en algunas la variación de unos de sus parámetros mejoraba el comportamiento de la RNA entrenada. El error cuadrático medio es una buena función de desempeño, siempre y cuando se sepa interpretar; en algunos casos este cálculo se hace de manera local, lo cual puede conducir a errores. AGRADECIMIENTOS A la profesora Claudia Isaza y al profesor David Mora Rodríguez, por su disposición para compartir el conocimiento. Fig. 8. Error Cuadrático Medio 8. CONCLUSIONES Debido a la cantidad de datos que se procesan, es necesario utilizar herramientas robustas para realizar el entrenamiento de la RNA. Se hace necesario realizar una optimización de los datos ya que, como se pudo observar, existían datos que no aportaban información significativa. REFERENCIAS 1. Nsl-kdd data set for network-based intrusion detection systems. Available on: March University Of California. Intrusion detection dataset in machine readable form. mes, M. Tavallaee, E. Bagheri, W. Lu and A. Ghorbani, A Detailed Analysis of the KDD CUP 99 Data Set, Submitted to Second IEEE Symposium on Computational Intelligence for Security and Defense Applications (CISDA), N. Araújo, R. de Oliveira, E. W. Ferreira, A. A. Shinoda, B. Bhargava, Identifying Important Characteristics in the KDD99 Intrusion Detection Dataset by Feature Selection using a Hybrid Approach. 17th International Conference on Telecommunications (ICT). Doha, Qatar, pp C. Isaza, Redes neuronales, Notas de Clase

49 ANALYSIS METHODS FOR AUDIO PREAMPLIFIERS MÉTODOS DE ANÁLISIS PARA PREAMPLIFICADORES DE AUDIO Andrés F. Pardo V. Universidad de San Buenaventura Medellín Sebastián Lopera G. Universidad de San Buenaventura Medellín (Tipo de Artículo: INVESTIGACIÓN. Recibido el 10/11/2010. Aprobado el 01/12/000) Abstract This article pretends to present methodologies for measuring the most important parameters of a preamplifier like slew rate, bandwidth, total harmonic distortion (THD) and signal to noise ratio. For this process were used spectrum analyzers, signal generators, multimeters, cables, among others. To support these methodologies, measurements shall be made into four different preamps. Keywords: Audio, bandwidth, preamplifier, signal to noise ratio, slew rate, total harmonic distortion. Resumen En este artículo, se plantean metodologías para la medición de los parámetros más importantes de un preamplificador: slew rate tiempo de respuesta, ancho de banda respuesta en frecuencia, distorsión armónica total THD% y relación señal ruido; para lo que se utilizan analizadores de espectro, generadores de señal, multímetro, cables, entre otros. Para corroborar estas metodologías, se efectúan mediciones en cuatro preamplificadores diferentes. Palabras clave: Ancho de banda, audio, distorsión armónica total, preamplificador, relación señal ruido. 1. INTRODUCCIÓN Los preamplificadores de audio son parte primordial dentro del proceso de producción y grabación de una obra musical, ya que acondicionan la señal antes de ser grabada. Su caracterización dentro del medio audiovisual se hace de forma subjetiva, como es el caso de las revistas enfocadas al audio, en donde los autores usualmente realizan análisis poco profundos en cuanto a las características electrónicas de los equipos, evaluando generalmente el desempeño de estos. Aunque este tipo de análisis lo realizan personas expertas en el tema, se hace necesario medir el desempeño de dichos dispositivos. Es así como surge la necesidad de realizar un análisis mas objetivo del desempeño de los preamplificadores de audio contemporáneos sin abandonar el aspecto subjetivo con el fin de comparar la información suministrada por los fabricantes. Dentro de este contexto, en este proyecto se plantean metodologías para medir los principales parámetros de un preamplificador, utilizando elementos comunes dentro de un estudio de grabación, además de la utilización de software especializado. 2. JUSTIFICACIÓN Wells [1] describe físicamente el preamplificador Robbie, de la empresa Blue, especificando sus entradas, controles y apariencia física. Además, realizan pruebas de manera subjetiva para determinar el desempeño del dispositivo haciendo pruebas de grabación de instrumentos con diferentes micrófonos. Liles [2] toma como base el hecho de que los recursos económicos no son una excusa para adquirir buenos preamplificadores. Realiza una comparación entre los distintos preamplificadores de bajo costo describiendo su versatilidad a la hora de realizar conexiones y configuraciones. De igual manera aclara que aunque los resultados son buenos, en ningún momento igualarán a dispositivos de gama alta. Stackpole [3] describe físicamente el preamplificador Mini-MP, de la empresa Apogee y sus diferentes tipos de configuraciones. Destaca que se encuentre un decodificador MS, utilizado a la hora de realizar grabaciones con la técnica MS (Técnica de grabación estéreo, llamada así por sus siglas en ingles, Mid Side). Realiza comparaciones subjetivas en 2 estudios de grabación diferentes, un estudio personal y un estudio profesional, estas pruebas son realizadas con micrófonos de gama alta, y a su vez realiza una comparación con preamplificadores de gama alta. Uno de los aspectos que le llama la atención al autor, es su flexibilidad para el uso de fuentes de alimentación genéricas. Concluye que la calidad del preamplificador es similar a algunos preamplificadores de gama alta y que su precio lo convierte en una excelente sugerencia para pequeños estudios que busquen enriquecer su calidad en producción y grabación. Es así como surge la necesidad de realizar un análisis más objetivo del desempeño de los preamplificadores de audio contemporáneos -sin dejar atrás el aspecto subjetivo-; con el fin de comparar la información suministrada por los fabricantes. Dentro de este contexto se plantean metodologías para medir los principales parámetros de un preamplificador, utilizando elementos comunes dentro de un estudio de grabación, además de la utilización de software especializado. 3. MARCO TEÓRICO 3.1 Preamplificador Amplificador enfocado a realzar voltaje, en este aspecto difiere con un amplificador de potencia. En el caso del preamplificador de micrófono, eleva la señal desde el nivel de voltaje de micrófono, del A. F. Pardo V. y S. Lopera G. Métodos de análisis para preamplificadores de audio. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

50 orden de los mili voltios mv, hasta nivel de línea, alrededor de 1 V. Otro característica importante es su respuesta en frecuencia la ganancia varía con la frecuencia, ya que da el sonido característico a cada dispositivo. El preamplificador de audio también es el encargado de acoplar la impedancia entre el dispositivo de entrada y el dispositivo de salida [4]. 3.2 Slew rate Velocidad máxima de cambio en el voltaje de salida de un amplificador, medida habitualmente en V/μs. Debe ser lo suficientemente elevada como para reproducir las frecuencias agudas sin distorsión, tanto más cuanto mayor sea el voltaje de salida del amplificador. Este parámetro es de vital importancia a la hora de reproducir los transientes señal de mucha energía en un intervalo corto de tiempo. [ ] (1) Donde es el cambio de voltaje, y es el tiempo que demora en cambiar dicho voltaje. 3.3 Relación señal/ruido (S/N ratio) Cuantifica qué tan ruidoso es un sistema o una señal. [ ] (2) Donde A señal es la amplitud de la señal y A ruido es la amplitud del ruido de fondo. 3.4 Ancho de banda Es el rango efectivo donde el amplificador puede funcionar correctamente con la mínima distorsión. Se eligen como puntos de corte aquellos donde la potencia del amplificador cae al 50%. 3.5 Distorsión armónica total (THD%) Cuantifica la distorsión armónica que entrega el sistema. Su cálculo se referencia a un tono puro de 1 khz un armónico, comparándolo con los armónicos que aparecen en la salida. ( ) (3) Donde A n es la amplitud del armónico n. 4. MÉTODOS Y MATERIALES 4.1 Software y equipos Pro Tools. Es uno de los sistemas DAW mas importantes y reconocidos en la producción musical. Actualmente se trabaja con la versión 8, y es desarrollado por AVID, una de las empresas más reconocidas a nivel mundial en producción audiovisual. Pro Tools ofrece una integración entre múltiples pistas de audio digital y archivos de tipo MIDI, con las herramientas necesarias para la grabación, edición, mezcla y procesamiento de audio digital [5]. SpectraPLUS. Es un analizador de espectro, que se encarga de convertir una señal del dominio del tiempo al dominio de la frecuencia. En el dominio de la frecuencia muestra lo que comúnmente se conoce como espectro. El ancho de banda de este software está determinado por la frecuencia de muestreo máxima que permite la interfaz de audio del computador [6] Es una interfaz de audio creada por Digidesign. Su comunicación con el computador se realiza a través de puertos FireWire. Posee 18 entradas simultáneas 8 entradas análogas y 10 entradas digitales, 8 entradas ADAT y 2 entradas S/PDIF. Su frecuencia de muestro máxima es de 96kHz [7]. API 512c. Preamplificador de audio desarrollado por API. Reconocido por su sonido característico y suave. Posee voltaje fantasma Phantom Power de 48V, ofrece una ganancia de 65 db, un atenuador de 20 db y un inversor de fase [8]. Digimax FS. Preamplificador de audio fabricado por la empresa Presonus. Posee 8 preamplificadores XMAX Clase A, con sus respectivos controles de ganancia. Cuenta con un protocolo de comunicación tipo ADAT, que permite expandir sistemas de grabación que tengan este mismo protocolo de comunicación. La máxima frecuencia de muestreo a la que el equipo puede funcionar es de 96kHz [9]. Onyx Mesa de mezcla analógica desarrollada por Mackie. Los preamplificadores de esta mesa son de tipo Onyx, fabricados por la misma empresa. Estos preamplificadores son reconocidos por su buena calidad y bajo costo [10]. ADAT Lightpipe. Es un estándar para la transferencia de audio digital mediante una interfaz óptica. Originalmente fue desarrollada por la empresa ALESIS, pero tiempo después fue aceptada por los consumidores y otras empresas, que fueron incorporando este tipo de interfaz en sus propios productos. Este estándar utiliza cables de fibra óptica y conectores de tipo Toslink en cada extremo. Permite transmitir audio digital con frecuencia de muestreo no mayor a 48 khz. 5. METODOLOGÍA Como primer paso se grabaron las referencias necesarias para las distintas mediciones, con el fin de trabajar siempre con la misma fase, punto de inicio y punto de corte. Estos archivos se grabaron directamente utilizando Pro Tools 8 y un generador de señal nativo del sistema DAW Fig. 1. Este proceso de grabación se realizó mediante 50

51 conexiones internas entre los diferentes canales utilizados buses. Donde dbfs es el nivel digital, y A es la amplitud relativa en digital. Para calcular el slew rate se necesita el voltaje de la señal de prueba pulso en este caso, y debido a que se está trabajando en un sistema digital, es necesario convertir los valores a voltaje. Fig. 1. Grabación Señal de Referencia Al tener la señal de referencia, se procede con la conexión de los diferentes dispositivos como se observa en la Fig. 2 Anexo 1. Primero se realizó una configuración en el sistema DAW, de modo que la señal de referencia fuese enviada a través de la salida 3 de la interfaz de audio, para posteriormente entrar al preamplificador. De la salida de cada preamplificador, a través de un cable balanceado, se rutea la señal a la interfaz de audio por la entrada cinco. Esta señal de entrada se graba y almacena para su posterior análisis en SpectraPLUS. La primera medición se realizó con la 003, para conocer la respuesta del sistema en el que se trabajaría. Luego, se procedió a realizar las mediciones de cada preamplificador utilizando cada una de las señales de referencia, y que luego de ser procesada por el preamplificador, arrojaría una nueva señal con comportamientos característico de cada uno de los dispositivos a medir. Para los procesos de medición se utilizaron tres señales de referencia: ruido rosa, tono puro 1 khz, y un pulso. El ruido rosa, contiene igual contenido energético por banda de octava, por esto se escoge para la medición del ancho de banda. El tono puro es escogido para la medición del THD, debido a que sólo tiene una componente espectral, y se estandarizó que las mediciones se realizaran a 1 khz. Por último, el pulso representa un cambio abrupto de nivel, lo que es ideal para medir la velocidad de respuesta. Para la conexión del Digimax FS se utilizó el protocolo de comunicación ADAT para conectar los dos dispositivos. Entonces la señal de salida del preamplificador saldrá a través de ADAT de manera digital e irá directamente hacia el sistema DAW de grabación. 5.1 Cálculo de parámetros THD%. Por medio del software SpectraPLUS se calculó la distorsión armónica total utilizando las señales de prueba de cada dispositivo tono 1kHz. El modelo utilizado por el software se basa en la ecuación (3) [11]. Teniendo el sistema a la salida con 0 dbfs y un tono puro de 1kHz, se midió el voltaje rms a salida luego se calculó el nivel pico, para tener en cuenta la sensibilidad de salida. Con la siguiente relación se calculó el voltaje pico de cada medición partiendo del nivel digital: [ ] El factor de 1 es la amplitud relativa para 0 dbfs ecuación (4). Se analizó la forma de onda para medir el tiempo que demora en cambiar de voltaje. Debido a que es una señal digital, se midieron los samples; teniendo en cuenta la frecuencia de muestreo de la señal de 96 khz. Este análisis también se le realizó a la referencia. Con esta información se puede utilizar la ecuación (1). Ancho de banda. Su análisis es realiza mediante un analizador de espectro SpectraPLUS. La señal de prueba utilizada fue el ruido rosa. Relación S/N. Por medio del software SpectraPLUS se midió el ruido de fondo en cada una de las mediciones. Debido a que se está trabajando en digital, el valor máximo es 0 dbfs, por lo tanto este valor se puede aproximar a la relación S/N. 6. RESULTADOS Y DISCUSIÓN Con los anteriores métodos de medición se llegó a los resultados contenidos en la Tabla 1, en donde se muestran los valores de la distorsión armónica total, el slew rate y la relación señal ruido; adicional a esto se calculó la distorsión armónica total del sistema ( ). En las Fig. 3 a 7 Anexo 2 se compara el ancho de banda del sistema con el de cada dispositivo, esto con el fin de verificar su desempeño. Los datos contenidos en la Tabla 2 son los suministrados por los fabricantes. Slew Rate (4) 51

52 TABLA 1 Resultados experimentales THD% (<) SlewRate Relación [ ] S/N (>) [db] Digidesign 003 0, ,165 79,2 API 512c Mic in 0,0026 0,14 70,3 API 512c Hi Z in 0,0018 0,134 79,5 Presonus Digimax FS 0,0088 0,093 74,9 Mackie Onyx 0,0166 0,137 78,1 TABLA 2 Datos suministrados por los fabricantes THD% (<) Ancho de Relación Banda [Hz] S/N (>) [db] Digidesign 003 0, a 20k API 512c Mic in 0,05 30 a 20k 95 API 512c Hi Z in 0,05 30 a 20k 95 Presonus Digimax FS 0, a 40k 101 Mackie Onyx 0, a 80k ANÁLISIS DE RESULTADOS Para un buen desempeño de los dispositivos, es necesario: Slew Rate alto en relación con la señal de entrada. Un ancho de banda mínimo para el espectro audible de 20 a 20 khz Alta relación señal ruido THD < 0,05% De forma general, ninguno de los dispositivos posee grandes falencias, ya que presentan muy buen desempeño en el rango audible de 20 Hz a 20 khz. Es necesario aclarar que todas las mediciones se realizaron con señales digitales, debido a la disponibilidad de los equipos. Es importante aclarar que aunque los valores de relación señal/ruido no son comparables entre sí, debido a que no se utilizaron las mismas señales de prueba, estos resultados muestran de manera aproximada el desempeño de los preamplificadores. Durante la realización de las mediciones existieron algunos problemas en cuanto a los equipos que se utilizaron para la realización del trabajo. El más importante fue la selección y uso de los cables utilizados para la conexión entre dispositivos. Estos cables no deberían inducir ruido a la señal, pero en este caso los cables lograban inducir ruido, que posteriormente afectaría la medición de la relación señal ruido. De acuerdo con esta situación las mediciones de este parámetro se vieron afectadas. API 512c. En este preamplificador existen dos tipos de entradas: entrada de alta impedancia y entrada de baja impedancia. Estás entradas son utilizadas de acuerdo con el origen de la señal y su nivel. Al realizar un análisis subjetivo se demuestra superioridad en la calidad de sonido con respecto a los demás preamplificadores estudiados. Se destaca por su sonido claro y suave, además posee una buena respuesta en frecuencia, lo que le da un color único y propio. Este preamplificador fue el que presentó el mejor desempeño. Digimax FS. Su sonido es limpio y claro, tiene muy buena respuesta en frecuencia, y a frecuencias altas su comportamiento es muy bueno, sin embargo no se percibe un sonido característico de este preamplificador Los preamplificadores de esta interfaz ofrecen una buena opción para grabaciones sencillas e instrumentos que no produzcan alto nivel de presión sonora. Una de sus desventajas es la ausencia de un atenuador pad, debido a que cuando sus controles de ganancia están al mínimo presentan una amplificación de 18 db. Onyx Esta mesa de mezcla es una buena opción para presentaciones en vivo y aplicaciones de estudios de grabación. El hecho de que los preamplificadores se encuentren junto a otros elementos electrónicos dentro de la consola ecualizadores, filtros, procesos dinámicos, entre otros no aumenta el ruido interno, lo que se evidencia en la relación señal ruido calculada considerablemente alta. 8. CONCLUSIONES Por medio de las medidas realizadas se pudo corroborar que ninguno de los preamplificadores analizados presenta grandes falencias en su desempeño, como lo muestra la Tabla 2, ya que presentan un THD bajo, ancho de banda adecuado para señales de audio, alta relación señal ruido y un slew rate alto en relación con la señal de entrada, y mostrando resultados congruentes con los suministrados por los fabricantes. Las metodologías utilizadas mostraron buenos resultados, teniendo en cuenta que se utilizaron señales digitales para el análisis. Aunque el uso de este tipo de señales necesariamente implica pérdida de información, ya que se pasa de una señal continua a una señal discreta en el tiempo, su utilización se justifica por la facilidad de análisis, y bajo costo debido a la posibilidad de utilizar un computador en lugar de dispositivos análogos. 52

53 Agradecimientos Los autores reconocen las contribuciones de Jeniffer Torres y Oscar Cardoso en el desarrollo del trabajo. REFERENCIAS 1. R. Wells, A solid preamp that has powerful EQ. Electronic Musician, Vol. 22, No. 5, pp , B. Liles, Microphone preamps. Sound & Video Contractor. Vol. 23, No. 9, pp , K. Stackpole, Apogee. Electronic Musician. Vol. 20, No. 8, pp , D. M. Thompson, Understanding audio. Boston: Berklee Press. 360 p Software/. Abril Users Guide.pdf. Abril /specifications. Abril Abril fs_manualv1.pdf. Abril

54 ANEXO 1 (a) Diagrama de conexión para el sistema 003 (c) Diagrama de conexión para API 512c (b) Diagrama de conexión para la mesa de (d) Diagrama de conexión para Digimax mezcla Onyx 24-4 FS Fig. 2. Diagramas de conexión 54

55 Fig. 3. Comparación del ancho de banda entre la 003 y la referencia Fig. 4. Comparación del ancho de banda entre el API 512c (mic in) y la referencia Fig. 5. Comparación del ancho de banda entre el API 512c (Hi Z in) y la referencia Fig. 6. Comparación del ancho de banda entre el DigimaxFS y la referencia Fig. 7. Comparación del ancho de banda entre la ONYX 24-4 y la referencia 55

56 VIRTUAL LABORATORY FOR THE TEACHING OF ELECTRONIC INSTRUMENTATION LABORATORIO VIRTUAL PARA LA ENSEÑANZA DE INSTRUMENTACIÓN ELECTRÓNICA Bayron A. Mendoza Universidad de San Buenaventura Medellín Gustavo A. Meneses B. Universidad de San Buenaventura Medellín Mónica J. Correa Universidad de San Buenaventura Medellín Yudy A. Ocampo Universidad de San Buenaventura Medellín (Tipo de Artículo: INVESTIGACIÓN. Recibido el 11/11/2010. Aprobado el 05/12/2010) Abstract Virtual laboratories have become themselves in a valuable support tool for the teaching practice in diverse professional education areas. Currently we can find implementations ranging from virtualizing basic science laboratories to virtual experimentation in specific engineering topics. Despite the major developments in this field have been reached abroad, in recent years at local and regional scale, progresses have been made pointing towards the efficient incorporation of this teaching-learning scenarios to the university academic activity. We propose the implementation of virtual practicals for the Electronic Instrumentation course as an optimizing element of the existent technological and locative resources. Additionally, within the project methodological framework, we propose these scenarios as a mean to strengthen the student academic and research experiences outside the classroom. We conclude that beyond a mere implementation o technologic novelty, the virtual laboratories open us an entrance for the experimentation with new ways and media of teaching-learning, contributing in this way to the educational effectiveness of the teacher-student relationship. Keywords: Teaching-learning tools, electronic instrumentation, internet, virtual laboratory, Labview. Resumen Los laboratorios virtuales se han consolidado en la última década como una valiosa herramienta de apoyo para el ejercicio docente en diferentes áreas de la formación profesional. En la actualidad podemos encontrar implementaciones que van desde la virtualización de prácticas en ciencias básicas hasta la experimentación virtual en temas específicos de ingeniería. Si bien los mayores desarrollos en este campo se han alcanzado en otras latitudes, en los últimos años, local y regionalmente, se han dado pasos firmes hacia la incorporación efectiva de estos escenarios de enseñanzaaprendizaje a la actividad académica universitaria. Se plantea la implementación de prácticas virtuales para la asignatura de Instrumentación Electrónica como elemento de optimización de los recursos tecnológicos y locativos existentes. Adicionalmente, dentro del marco metodológico del proyecto, se plantean estos escenarios como un medio para fortalecer las experiencias académicas e investigativas del estudiante por fuera del aula de clase. Concluimos que más allá de una mera implementación o novedad tecnológica, los laboratorios virtuales nos abren una puerta para la experimentación con nuevas formas y medios de enseñanza-aprendizaje, contribuyendo así a la efectividad formativa de la relación docente-estudiante. Palabras clave: Herramientas de enseñanzaaprendizaje, instrumentación electrónica, internet, laboratorio virtual, Labview. 1. INTRODUCCIÓN En el escenario tecnológico actual existe una gran diversidad de herramientas computacionales y de telecomunicación que cuentan con amplia difusión y disponibilidad entre la comunidad académica, y que pueden integrarse a los procesos de enseñanza-aprendizaje. Dentro de las propuestas instrumentales desarrolladas para apoyar la educación, soportadas en las las tecnologías de la información y de las telecomunicaciones TICs, los Laboratorios Virtuales son una de las más novedosas ya que pueden utilizarse de múltiples formas para reforzar competencias que son fundamentales para el ejercicio del futuro profesional, ya sea que se desempeñe en el campo aplicado o en áreas más cercanas a lo científico-investigativo. Día a día, los escenarios educativos tienden a tornarse más dinámicos y flexibles a medida que los requerimientos de las personas y de las sociedades cambian, debido a la influencia que tienen las tecnologías de la información y de las telecomunicaciones en su vida diaria. Muchas herramientas pedagógicas han evolucionado con el objetivo de que la educación pueda sacar mayor provecho de la realidad tecnológica y de infraestructura, para integrar los nuevos servicios y posibilidades al entorno formativo que comparten docentes y estudiantes. Internet, con su influencia transversal sobre los diferentes niveles del comportamiento social, junto con su creciente ubicuidad y una cierta democratización en cuanto a su acceso, se convierte en un medio aglutinante de intereses de todos los actores del proceso educativo. A nivel industrial, en áreas como la Instrumentación y la Telemetría, históricamente se ha llevado a cabo una evolución tecnológica interdisciplinaria entre la electrónica, las telecomunicaciones y la informática. El sector educativo, principalmente en la última década, ha apropiado este concepto de evolución G. A. Meneses B., B. A. Mendoza, M. J. Correa y Y. A. Ocampo. Laboratorio virtual para la enseñanza de instrumentación electrónica. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

57 conjunta y lo ha plasmado en herramientas educativas denominadas Laboratorios Virtuales [1, 2] para aprovechar los servicios de Internet, Intranet y otras tecnologías de uso extendido, y llevar las actividades prácticas a sitios remotos, descentralizando así el quehacer educativo al llevarlo más allá de los espacios físicos de las instituciones de formación superior [3]. Adquisición de datos (Interfaz RS232, USB, etc) SERVIDOR sensor Actuador u C Montaje del experimento Software de Instrumentación Virtual WWW Internet Usuario 1 Usuario 2 Usuario 3 Usuario 4 Usuario n Estudiantes Fig. 1. Esquema general de operación de una práctica de Instrumentación llevada a laboratorio basado en la Web Los laboratorios virtuales son escenarios que se han desarrollado a partir de una madurez tecnológico-operativa de campos como la computación y las telecomunicaciones Fig. 1, erigiéndose en sí mismos como una propuesta instrumental de apoyo a la formación de personas en diferentes áreas del conocimiento. Actualmente existen desarrollos a nivel mundial en gran número de áreas del conocimiento con implementaciones de laboratorios o prácticas virtuales que abarcan públicos pertenecientes a todos los niveles de formación, desde básica primaria hasta formación en posgrado, pasando por la secundaria y el pregrado [4]. 1.1 Instrumentación Virtual El concepto de virtualidad aplicado a la instrumentación electrónica ha visto su materialización desde hace ya varios años a través de programas ampliamente conocidos en entornos industriales y académicos como, por ejemplo, Labview, Matlab y también a través de aplicaciones desarrolladas en lenguajes de programación como Visual Basic, Java, HTML, XML, herramientas como Active X, entre otros. La instrumentación virtual integra las señales de las variables de campo y las señales de mando o control con la potencia computacional, la visualización gráfica, la capacidad de procesamiento sobre los datos y la conectividad con Internet que ofrecen los computadores. En un instrumento virtual se tiene la posibilidad de tener, mediante el software, las representaciones gráficas de los diferentes controles e indicadores que normalmente se encuentran en un instrumento de medición o en un gabinete de control industrial [5]. Los diferentes elementos de lo que se denomina panel frontal tienen un equivalente o función que puede interactuar con otros elementos gráficos o bloques de programación que no necesariamente son visibles para el operario final Fig. 2. Estos bloques o funciones permiten implementar las estructuras clásicas de programación, interactuar con operadores lógicos, algebraicos y relacionales, exportar datos a otras aplicaciones, como por ejemplo el Bloc de notas, Excel, Access, etc., programar alarmas, crear vectores, matrices, graficar, calcular variables estadísticas, implementar controles, filtros, realizar conversiones análoga-digital, digital-análoga, hacer procesamiento digital de señales, correr algoritmos, calcular ecuaciones, etc. [6]. Incluso bajo la figura de la instrumentación virtual se puede generar información a partir de los datos primarios, y luego conocimiento a partir de la información, aplicando técnicas multidisciplinarias de procesamiento inteligente. Fig. 2. Panel Frontal de un Instrumento Virtual Debido al tránsito de los datos de medición y control por la red de redes, la instrumentación virtual también ha tenido en cuenta los ítems relativos a su seguridad e integridad, y normalmente una aplicación que tenga salida a la web deberá ofrecer alternativas y opciones de protección y control de usuarios, clientes, servidores, administradores, etc. Obviamente el software de instrumentación, control y supervisión industrial también posee herramientas para la comunicación a nivel de las denominadas redes industriales, tanto para estándares abiertos como para los principales estándares propietarios que ofrece el mercado [7]. 1.2 Laboratorios basados en la Web Un laboratorio virtual y remoto es un espacio educativo que integra elementos físicos utilizados en la práctica de un concepto, ligados a una asignatura específica, como elementos tecnológicos de hardware y software propios de las tecnologías orientadas hacia la web Fig. 3. La internet constituye el armazón tecnológico de estas herramientas educativas, que se complementa con elementos de hardware propios de la teoría de redes y de transmisión de datos junto con una implementación física de una práctica o experimento, que a su vez se comunica 57

58 con un computador que hace las veces de servidor. Los elementos de software ligados a la práctica como tal pueden ser propios del área del conocimiento o no, es decir, puede haber software propietario, software educativo especial o tratarse de aplicaciones desarrolladas sobre lenguajes y plataformas abiertas [1], [3]. Fig. 3. Web Server incorporado al Internet Toolkit de Labview 2. METODOLOGÍA 2.1 Estrategia Metodológica El esquema seguido para el desarrollo del proyecto cubre cinco actividades principales: 1. Levantamiento del estado del arte y constitución del corpus documental de referencia 2. Diseño e implementación de un conjunto de prácticas virtuales de laboratorio para la asignatura de Instrumentación Electrónica 3. Desarrollo del sitio web, gestión de contenidos y administración de usuarios 4. Montaje, pruebas y puesta a punto de las actividades prácticas a compartir 5. Análisis de los resultados obtenidos e implementación de mejoras sobre las prácticas, la página web y los contenidos. Estas actividades no son mutuamente excluyentes, por lo tanto cada una de ellas puede realizarse simultáneamente con otra u otras si se considera pertinente para lograr los objetivos tecnológicos, metodológicos o didácticos del laboratorio. 2.2 Desarrollo Metodológico A partir del proceso de levantamiento del estado del arte se constituyó un corpus documental que sirve de referencia en aspectos metodológicos, técnicos y didácticos para el proyecto. También se ha realizado una valoración de desempeño Tabla 1 de las diferentes opciones de conectividad que ofrece el software que se posee a nivel institucional Labview. Se diseñaron e implementaron varias prácticas virtuales de laboratorio para la asignatura de Instrumentación Electrónica y se está migrando los contenidos de las prácticas a un sitio web piloto. Adicionalmente, se realizaron pruebas periódicas que sirvieron de apoyo para el análisis y el mejoramiento de los resultados obtenidos. TABLA 1 Valoración de desempeño de opciones de conectividad de Labview Heramienta Caracterísiticas Resultados /Protocolo Web Publishing Tool TCP-IP DataSocket UDP LabVNC Remote Panels Applet-View Fuente: Autores Genera automáticamente código HTML y crea una página web interactiva con el servidor. Al panel pueden acceder múltiples PC s remotos estableciendo derechos de acceso y seguridad mediante direcciones IP. Proporciona una interfaz de usuario simple con una red de comunicación confiable. Labview permite desarrollar aplicaciones personalizadas en las que el programador podrá establecer los clientes y el servidor. Gracias a esta tecnología se puede publicar y recibir datos en tiempo real de una o más aplicaciones cliente de una red sin tener que preocuparse acerca de los formatos de datos y protocolos de red. Protocolo de comunicación útil para el envío de pequeños paquetes de datos a uno o más destinatarios Utiliza un applet de Java, en el que una representación exacta del instrumento virtual funcionará en un navegador remoto donde el cliente tiene control completo del VI como si estuviera en su escritorio. Basado en el protocolo VNC. Permite la visualización y manipulación remota de los VI s Permite la visualización y la manipulación de VI s utilizando JAVA en conjunto con Labview Probado exitosamente en las versiones 6, 7, 8, 8.2, 8.5, 8.6 y 2009 de Labview. No requiere recursos ni licencias adicionales Probado exitosamente en las versiones 6, 7, 8, 8.2, 8.5, 8.6 y 2009 de Labview. No requiere recursos ni licencias adicionales Probado exitosamente en las versiones 6, 7, 8, 8.2, 8.5, 8.6 y 2009 de Labview. No requiere recursos licencias adicionales Similares anterior ni al Probado exitosamente en la versión 6 de Labview. No requiere recursos o licencias adicionales. Es Freeware y opera de manera similar a un escritorio remoto Requiere de licencias adicionales Opera satisfactoriamen te para la versión 6i y 7 de Labview. Funciona como Freeware o también con Licencia De manera paralela a los aspectos tecnológicos de implementación de las prácticas y del laboratorio, se han elegido diferentes directrices didácticas relativas al proceso de enseñanzaaprendizaje inherente a la herramienta. Es así como algunas de las prácticas se han desarrollado bajo el enfoque de aprendizaje basado en 58

59 problemas [8]. No obstante, no se desea tener una sola metodología asociada a la concepción de las prácticas, puesto que en este aspecto también el laboratorio, las prácticas y el uso que hagan los estudiantes de éstas, determinarán el rumbo y los ajustes operativos del proyecto. Se utilizan encuestas como herramientas que permiten asignar una valoración cuantitativa o cualitativa a la percepción de los estudiantes ante el laboratorio virtual propuesto, y su disposición previa ante ítems aptitudinales y actitudinales concernientes a metodologías como, por ejemplo, el Aprendizaje Basado en problemas ABP. Las encuestas sirven para recoger las impresiones de los estudiantes ante aspectos metodológicos relativos al diseño de la práctica y de sus contenidos asociados, asi como para recoger conceptos ligados a la disposición y funcionalidad del sitio web. 2.3 Consideraciones operativas Los contenidos de las prácticas y de las asignaturas o recursos relacionados se pueden alojar o no en un sitio web institucional. Usualmente el experimento o práctica debe comunicarse con la página web y se encuentra empotrado en ésta mediante controles, botones, pantallas de video, gráficos, etc. Según sea la implementación desarrollada el usuario podrá tener, entre otras, oportunidades de ingreso a un control de acceso, posibilidad de obtener información relacionada con la asignatura, utilidades para intercambiar opiniones con compañeros y tutores, tener comunicación con el docente y operar a distancia los elementos ubicados remotamente. El docente, a su vez, tiene la oportunidad de realizar seguimiento sobre el desempeño de los estudiantes, obtener estadísticas de los usuarios, realizar labores de asesoría y acompañamiento y verificar la intensidad horaria de las actividades independientes y extraclase que siguen los estudiantes [9-11]. 2.4 Aspectos de optimización Los laboratorios basados en la web también ofrecen ventajas en aspectos relacionados con el costo de los elementos implicados en la experiencia práctica, la disponibilidad de espacios y horarios, la posibilidad de realizar observaciones que requieren continuidad en el tiempo de horas, días, semanas, meses, etc., y la oportunidad de realizar de manera segura procedimientos que involucren riesgo para la seguridad de las personas o para la integridad de los elementos o instalaciones en donde se realiza la práctica. 2.5 Web hosting y manejo de usuarios Para implementar un laboratorio virtual basado en la web es necesario tener una página alojada en un servidor, que puede ser el mismo que aloja la página institucional o una página creada bajo un URL Uniform Resource Locator diferente al institucional. El hecho de tener una página permite crear vínculos a otros contenidos relacionados con las asignaturas y con las prácticas, además, se puede tener un área de descarga en la que los estudiantes registrados en el curso puedan bajar los archivos de las diferentes experiencias y actividades [12]. Por su parte Labview maneja la figura de un web server que provee una serie de herramientas de configuración que tienen que ver con aspectos como una lista de usuarios IP autorizados y con el tipo de acciones que pueden realizar sobre los instrumentos virtuales, es decir, si estos solo pueden realizar labores de monitoreo, de control o ambas. Herramientas como Web Publishing ofrecen la posibilidad de empotrar los paneles frontales en los web browser y transferir o no el control a los usuarios de la página. A partir de herramientas especializadas como LabVNC, apoyadas en el concepto de Virtual Network Computing o como Internet Toolkit, se pueden tener opciones más elaboradas para la gestión de usuarios y de instrumentos virtuales. También está la opción de control de acceso de usuarios que permite el servidor web, con un archivo de lista de accesos. Otra figura que permite transferir opciones de control y visualización vía web, sin la necesidad de una página, es la de los paneles remotos. Es importante recordar que Labview también ofrece posibilidades de trabajo con programación TCP-IP o UDP y manejo de sockets de comunicación Datasocket [7], lo mismo que las funciones CGI Common Gateway Interface de la librería Internet, que se habilita al instalar el Internet Toolkit y que permite la autenticación de usuarios asignándoles login y password. 2.6 Construcción dinámica de páginas web Herramientas como el Internet Toolkit de Labview Fig. 4 permite el trabajo con Common Gateway Interface CGI, una interfaz estándar que permite que programas de pasarela externos se comuniquen con servidores de información como los servidores tipo HTTP [7]. En la web, cuando un cliente envía una petición cuya URL especifica una aplicación CGI Fig. 5, el servidor decodifica la petición, carga la aplicación y la ejecuta. La aplicación genera los datos y los regresa al servidor. El servidor envía una respuesta al cliente con estos datos y éste a su vez despliega la respuesta. Se pueden generar documentos dinámicamente utilizando aplicaciones CGI. Este proceso ayuda 59

60 cuando los datos de los documentos cambian en el tiempo o cuando se generan los documentos según criterios determinados por el usuario. Las aplicaciones CGI se ejecutan sobre servidores HTTP y difieren de los applets que se descargan y ejecutan sobre los computadores que hacen las veces de clientes. Fig. 4. Algunas propiedades de configuración y gestión de usuarios de LabVNC Fig. 5. Herramientas para el trabajo con CGI en Labview Con software diferente a Labview o utilizando otros esquemas de aplicación para laboratorios virtuales es posible recurrir a otras soluciones para la construcción dinámica del sitio. 2.7 Recursos servidor-cliente Muchas de las herramientas web de Labview básicamente siguen el esquema de clienteservidor. Con Datasocket, por ejemplo, se habla de Publisher y Subscriber, con Remote Panels de Controller y Controlled, con otras aplicaciones, como LabVNC, se habla claramente de clients, con winvnc de viewers, también se habla de users, en fin, el resultado es básicamente el mismo: proveedor de información y usuario de información. En este caso específico, datos e información de medición y control, pero también tareas de control de accesos, conexión a bases de datos y funciones tradicionales marcadas por el esquema de uno u otro lado Fig. 6. Es importante anotar que esta asignación de roles no es rígida o definitiva, principalmente en el caso de que las estaciones involucradas en la comunicación posean Labview. Existe, para ciertas situaciones, la facilidad de acceder a utilidades servidor-cliente sin tener Labview instalado en los receptores, a partir de la instalación de complementos como plugins o elementos de software como run-time engine [5]-[7]. Experimento: ejemplo (Estación de PDA Observación Meteorológica) Celular Página WEB Torre de comunicaciones W N S PC (Servidor) Labview E + Web Server G Server Torre de comunicaciones Portátil Cliente 1 WEB Hosting WWW Cliente 2 Cliente n WAP Docente(s) Estudiantes Comunidad Académica Página WEB Herramientas WEB: XML Java CGI Active X VNC(LabVNC) Datasocket TCP/IP Remote Panels Web Publishing Tool etc... Control de Usuarios Login Passwords Estadísticas Contenidos Comunidades (Foros, chats, etc.) Alojamiento (sitio web institucional u otro) Fig. 6. Esquema de una práctica de laboratorio llevada a la web y posibilidades de acceso e interacción 3. RESULTADOS PREVIOS El proyecto se encuentra aún en fase de desarrollo, hasta el momento se ha implementado completamente una práctica de adquisición de datos con un sensor inteligente de temperatura, esta práctica sirve de referencia para todas las pruebas Fig. 7. Como materiales se ha elaborado una guía de práctica de laboratorio, se ha habilitado un sitio web, en el que se puede acceder a las guías y a otro material de apoyo a los cibernautas relacionados con las temáticas del curso de Instrumentación Electrónica. También se han aportado contenidos, desarrollados al interior del proyecto, agregándolos al sitio que aloja al grupo del semillero SISUSBMED. Fig. 7. Página de inicio del sitio web piloto habilitado para el laboratorio virtual El trabajo se ha socializado con los jefes de línea de investigación de los programas de Ingeniería Electrónica e Ingeniería de Sistemas, y con la comunidad académica de la Facultad a partir de la presentación del proyecto en la modalidad de poster en las II Jornadas de Investigación y con los estudiantes de los cursos de Instrumentación Electrónica y Telemetría, mediante pruebas de campo que se han realizado con ellos. 60

61 A partir de las diferentes sesiones de prueba, que se han realizado bajo diferentes escenarios de conectividad y de red con un número variable de usuarios, se ha logrado establecer las condiciones más favorables para el correcto funcionamiento de las prácticas virtuales, desde el punto de vista de Hardware-Software. Uno de los escenarios más flexibles, tanto para administradores como para usuarios de las prácticas, es aquel en el sólo se requiere tener instalado Labview en el punto del experimento, en el equipo que hace las veces del servidor, y en donde los usuarios se conectan a través de equipos portátiles al experimento, simplemente utilizando un navegador web como Internet Explorer, Google Chrome, Mozilla Firefox, etc. Aunque este escenario tiene limitaciones en lo que tiene que ver con el control que pueden ejercer los clientes sobre el experimento, presenta gran sencillez de operación y puede ser de utilidad para que un docente pueda compartir en línea, con sus estudiantes Fig. 8, un experimento que realiza en una sola tarjeta conectada a un sólo equipo por razones de costo de los dispositivos electrónicos asociados y tamaño y complejidad del experimento en sí. Fig. 8. Acceso al panel virtual de práctica de medición de temperatura a través de un web browser 4. DISCUSIÓN DE LOS RESULTADOS En cuanto a las pruebas realizadas se han detectado dificultades con la cobertura de la red inalámbrica de la sede, específicamente en el sitio en donde se encuentran los laboratorios, sin embargo consideramos que este hecho puede solucionarse cuando se terminen las adecuaciones locativas y tecnológicas del edificio. Un ítem que favorece la implementación de prácticas virtuales es el carácter masivo que han tomado los computadores portátiles, aparte de los dispositivos móviles con capacidad de navegación y los smartphones [13]. En la actualidad es común que los estudiantes los porten al interior del campus, por lo que es posible experimentar con ellos en diferentes aspectos temáticos ligados a la asignatura y, al mismo tiempo, implementar escenarios que permitan compartir recursos y montajes de laboratorio entre los estudiantes intrasede en momentos de clase o laboratorio presencial. Así mismo, es necesario desarrollar herramientas open source para aplicativos como Scilab, Modelica, entre otros [14] [15], que puedan integrarse al laboratorio virtual con contenidos pertinentes para el curso o los cursos que se apoyen a través de esas herramientas. También se debe fortalecer las posibilidades de monitoreo del sitio a partir de la instalación de cámaras con registro estacionario o móvil. Con la ayuda de complementos, módulos o funciones específicas de Labview, y a nivel de experimentos por fuera de la sede, se han logrado progresos que llevan a un nivel superior el nivel de prestaciones del administrador y dan un mejor tratamiento a ítems como la seguridad y el manejo de los usuarios. En principio, el hecho de contar con un sitio piloto en la web para el alojamiento de las actividades y prácticas del curso, permite ajustar estrategias que ya están en marcha, y diseñar nuevas aproximaciones a la forma como tecnológica y metodológicamente se planean las actividades para los estudiantes, el público externo y los mismos docentes, tutores, monitores o administradores del sitio. Se ha verificado la operatividad de las prácticas y de los recursos de conectividad de Labview en diferentes escenarios, desde el que se comparten instrumentos virtuales en dos estaciones conectadas punto a punto, pasando por aplicaciones de intranet cableadas, hasta llegar a las experiencias mas recientes con experimentos compartidos sobre la intranet inalámbrica, y sobre internet, entre las residencias de las personas ligadas al curso Fig. 9. Fig. 9. Acceso a práctica virtual con TCP-IP y Generación de Reporte tipo HTML en el lado del cliente En la mecánica de desarrollo de las actividades adelantadas hasta ahora se ha identificado la necesidad de empotrar elementos de video, incluso de audio, en las experiencias, y mejorar el nivel de administración de los usuarios y de sus niveles de interacción [16] con los montajes físicos y los dispositivos de medición, control, etc., que hacen parte del experimento. 61

62 Respecto del componente metodológico del proyecto, se ha observado que el nivel de apropiación de las Tecnologías de la Información y de las Comunicaciones, así como la concepción que tienen los estudiantes acerca del estudio y de cómo debe ser éste, pueden favorecer en gran medida su respuesta ante desarrollos virtuales. De esta manera se optimiza la efectividad formativa del medio que constituyen los laboratorios, y se potencian más allá de un mero instrumento que soportado sobre una infraestructura tecnológica. En cuanto a las opciones analizadas se encontró que TCP-IP y UDP junto con Datasocket, proveen gran robustez, fiabilidad e independencia de elementos adicionales a la instalación base de Labview. Adicionalmente, herramientas y funciones como el Web Server, el VI Server y Web Publishing Tool, en conjunto con librerías como File I/O y Report Generation, permiten al estudiante y al profesor opciones diversas para el mejor aprovechamiento de las sesiones de práctica y de los datos generados en ellas. Según lo investigado, lo experimentado y los resultados obtenidos hasta este punto del proyecto, consideramos que un ejemplo de referencia para la práctica de la Instrumentación Electrónica, apoyada en los recursos web de Labview, debe poseer principalmente los siguientes elementos, que pertenecen a ámbitos técnicos, pedagógicos y metodológicos: Implementación física del experimento o montaje con una etapa de adquisición de datos que se comunique con Labview. Locación física dedicada para la implementación de la experiencia y la ubicación de los equipos de medida, control, cómputo y comunicaciones. Computador que reciba los datos del montaje y tenga Labview con las herramientas de Web Server y de comunicación con Internet, habilitadas y debidamente configuradas. Conexiones habilitadas a Intranet e Internet. Página web con su respectiva gestión de webhosting y herramientas habilitadas para la modificación y actualización de contenidos, y el control y la atención de usuarios. Contenidos desarrollados, como guías de práctica, formatos de informes, tutoriales, lecciones, foros, chats, zonas de descarga, etc. Filosofía pedagógica transversal a la asignatura y al plan de formación establecido para el programa de pregrado. Usuarios con los equipos debidamente configurados y provistos de los programas, complementos y aplicativos necesarios para poder adelantar las actividades relacionados con el Laboratorio Web. Usuarios con privilegios administradores, docentes, tutores que puedan realizar cambios sobre el sitio web y sobre las prácticas, en aspectos como contenidos, operación, habilitación, entre otras. Voluntad institucional y compromiso con la gestión y mejora continua de los recursos y seguimiento al desempeño de la herramienta, y la estrategia educativa que representa el Laboratorio Virtual. 4. CONCLUSIONES Y TRABAJO FUTURO En el próximo semestre académico se integrarán contenidos y algunas prácticas de la asignatura Telemetría al sitio. También se trabajará en la construcción de un sitio sobre un host que permita la administración de los usuarios en aspectos como la autenticación; se trabajará en el desarrollo de funciones que permitan la interacción de los usuarios con las experiencias y al docente el seguimiento de la participación de los estudiantes. Dentro de esta línea de trabajo se debe fortalecer los medios de participación e interacción de la comunidad que se beneficia del laboratorio, mediante herramientas como el chat, los foros, etc. El proyecto incorporará en sus fases de desarrollo diferentes herramientas y estrategias que permitan integrar cada vez de manera más amplia e interactiva a docentes y estudiantes. El alojamiento de simulaciones, registros de prácticas, prácticas, guías, presentaciones, documentos, artículos, foros, chats, estadísticas y otros elementos, propios de los ambientes virtuales de aprendizaje, le dará a los docentes y a los mismos estudiantes la oportunidad de construir procesos de enseñanza-aprendizaje más continuos, es decir, menos atomizados o centrados en especificidades de cada unidad temática, y enmarcados dentro de una comunidad académica con objetivos e intereses comunes con un espacio para el debate, el estudio y la experimentación. Como aspectos sobre los que deben centrarse las líneas de acción del proyecto, en el corto y mediano plazo, está el fortalecimiento del sitio web, la elaboración y actualización de los contenidos del sitio y la gestión de usuarios, la integración con herramientas y recursos open source, y las actividades que permitan llevar la acción académica a redes sociales y a dispositivos móviles. Otro frente importante es el de la implementación y adecuación de espacios físicos al interior de la universidad, que sirvan de marco estructural en lo locativo-tecnológico para soportar las experiencias 62

63 y las implementaciones necesarias para atender los cursos en sus diferentes instancias a lo largo de los semestres académicos. Se trabaja actualmente en la integración del proyecto a planes institucionales, regionales y nacionales de formación mediante herramientas virtuales, enmarcado dentro de las estrategias macro adoptadas a nivel de ciudad, departamento y país en los últimos años. El próximo paso consiste en avanzar, de la fase de pruebas y experimentación con la herramienta de los laboratorios virtuales, a una fase de operatividad e incorporación activa a cursos como Instrumentación Electrónica y Telemetría, que normalmente se ofrecen a estudiantes que cursan sus últimos semestres de formación en Ingeniería. La implementación de un Laboratorio Virtual y remoto basado en la web requiere el compromiso de recursos técnicos, económicos, institucionales, pedagógicos y de disponibilidad continuada en el tiempo. En lo relativo a aspectos de investigación continuada, seguimiento y refuerzo de actividades de aprendizaje de los estudiantes, formación y fortalecimientos de comunidades académicas, y establecimiento de vínculos entre todos los actores de las instituciones educativas, los laboratorios virtuales brindan un gran campo de nuevas oportunidades. Las TICs se encuentran en un punto de maduración inmejorable para la implementación de experimentos educativos como los laboratorios virtuales basados en la web. El país y, en particular, la región, poseen recursos humanos y tecnológicos apropiados para el desarrollo de experiencias de este tipo. En ese orden de ideas, es inherente al compromiso que deben tener los actores del proceso docente-educativo, la búsqueda e implementación de nuevas formas de enseñanza-aprendizaje más acordes a los vientos tecnológicos actuales, y a las expectativas de la sociedad actual. Los laboratorios virtuales no deben verse como un reemplazo de las prácticas in situ, sino como un complemento académico de éstas, y como una forma de optimización de los tiempos, de los recursos y de acortamiento de las distancias físicas y tecnológicas propias de países en vía de desarrollo. Sitio web de contenidos del laboratorio virtual: nicausb/ Automática, Almería, España, pp Septiembre, C. Zuluaga, C. Sánchez y E. Rodríguez, Laboratorio de automática vía Internet LAVI. Revista iberoamericana de automática e informática industrial, Vol. 2, No. 2, pp F. Candelas, F. Torres, P. Gil, F. Ortiz, S. Puente y J. Pomares, Laboratorio virtual remoto para robótica y evaluación de su impacto en la docencia. Revista iberoamericana de automática e informática industrial, Vol. 1, No. 2, pp A. A. Taleb, A. Fahli et M. Moussetad, Mise en Oeuvre d une Télé-Séance de TP de Physique Nucleéaire Rétrodiffusion de Particules, 5 International Conference: Sciences of Electronic Technologies of Information and Telecommunications, SETIT Hammamet, Tunisia. March 22-26, L. K. Wells and J. Travis, Labview for Everyone. USA: Prentice Hall. 586 p R. Bitter, T. Mohiuddin, M. Nawrocki, Labview Advanced programming techniques. New York: CRC Press. 520 p J. Travis, Internet Applications in Labview. New York: Prentice Hall, 601 p C. Ordosgoitia, G. Meneses, Laboratorio Virtual Basado en la Metodología de Aprendizaje Basado en Problemas, ABP, Revista Educación en Ingeniería ACOFI, No. 7, pp Junio L. H. Santamaría y J. N. Pérez, Laboratorio Virtual para el Diseño de Radio Enlaces en un ambiente Grid, Revista Ciencia e Ingeniería Neogranadina, Vol. 18, No. 2, pp Diciembre J. A. Sandoval, J. M. Ramírez y A. L. Valencia, Desarrollo Tecnológico de los Laboratorios Remotos de Estructuras e Ingeniería Sísmica y Dinámica Estructural, Revista Ciencia e Ingeniería Neogranadina, Vol. 18, No. 2, pp Diciembre C. F. Ariza y D. Amaya, Laboratorio Remoto Aplicado a la Educación a Distancia, Revista Ciencia e Ingeniería Neogranadina, Vol. 18, No. 2, pp Diciembre A. Yayla y A. Akar, Web Based Real Time Remote Laboratory with Labview Access for Analog and Digital Communication Courses, Journal of Electrical & Electronics Engineering, Vol. 8, No. 2, pp J. Zambrano, Aprendizaje Móvil (M-learning), Revista Inventum, No. 7, pp Diciembre Z. Peng y L. Ma. The realization of SCADA based on Scilab, International Workshop on Open Source Software SCILAB and its Engineering Applications, Hangzhou, China, pp G. Skiba, Z. Tomasz y B. Andrzej, Rapid Control Prototyping with Scilab/Scicos/RTAI for PC-based and ARM-based Platforms, International Multiconference on Computer Science and Information Technology, Wisla, Poland, pp , A. Lelevé, H. Benmohamed et P. Prévôt, Mise à distance de travaux pratiques en automatique, Revue en ligne skholê, No. 14, pp REFERENCIAS 1. H. Vargas, R. Dormido, N. Duro, S. Dormido-Canto, Creación de laboratorios virtuales y remotos usando easy java simulations y Labview. XXVII Jornadas de 63

64 URBAN NOISE INDICES IN THE DAY WITHOUT CAR IN THE MEDELLIN CITY ÍNDICES DE RUIDO URBANO EN EL DÍA SIN CARRO EN LA CIUDAD DE MEDELLÍN Jeiser Rendón Universidad de San Buenaventura Medellín José R. Gómez Universidad de San Buenaventura Medellín Andrés F. Pardo Universidad de San Buenaventura Medellín Raúl A. Monsalve Universidad de San Buenaventura Medellín Diego M. Murillo G. Universidad de San Buenaventura Medellín (Tipo de Artículo: INVESTIGACIÓN. Recibido el 18/11/2010. Aceptado el 05/12/2010) Abstract The present article attempts to discover through ambient noise and traffic flow data, the change of the soundscape in the city of Medellin during the implementation of car-free day on Thursday, April 22, 2010, for which they had reference to four significant points of the city: Monterrey, Alpujarra, Railroad Avenue and 33rd Street. For the data acquisition process was measured, both in the day without a car, like a car day and is based upon Resolution 0627 of 2006 "By which sets the national standard for noise emission and noise "and the ISO 1996" international standard that contains the description, measurement and evaluation of environmental noise. " It was important to note in this study, the incidence of private cars in urban noise that has the city of Medellin, analyzing the measurements from this day, and finding functional congruence between urban noise and cars. Keywords: Car free day, Medellin, pollution, urban noise. Resumen Con el presente artículo se pretende descubrir, a través de mediciones de ruido ambiental y datos de flujo vehicular, el cambio del paisaje sonoro en la ciudad de Medellín durante la implementación del día sin carro del día jueves 22 de abril de 2010; para lo que se tuvo como referencia cuatro puntos significativos de la ciudad: Monterrey, Alpujarra, Avenida Ferrocarril y la calle 33. Para el proceso de adquisición de datos se realizaron mediciones, tanto en el día sin carro, como en un día con carro, teniendo como fundamento la Resolución 0627 de 2006 Mediante la cual, se establece la norma nacional de emisión de ruido y ruido ambiental y la ISO 1996 Norma internacional que contiene la descripción, medición y la evaluación de ruido ambiental. Fue importante en esta investigación constatar la incidencia de los automóviles particulares en los niveles de ruido urbano que posee la ciudad, analizando las mediciones obtenidas este día, y encontrando congruencias funcionales entre el ruido urbano y los automóviles. Palabras claves: Contaminación, día sin carro, Medellín, ruido urbano. 1. INTRODUCCIÓN El día sin carro nació en 1994 como un espacio para crear una conciencia de cuidado y amabilidad con el medio ambiente. En este día se combate el sedentarismo, se invita a la integración de la bicicleta y de la tracción humana como un valor urbano al que todo ciudadano debe acceder. Su gestor fue el franco-norteamericano Eric Britton, idea que fue potencializada en Colombia por el entonces alcalde de la ciudad de Bogotá Enrique Peñaloza, quien en 1999 implantó por norma democrática el día sin carro en la ciudad el primer jueves de febrero de cada año [1]. Tuvo tal reconocimiento a nivel mundial que le valió a un premio Gotemburgo el 24 de noviembre del año 2009 en Suecia. [2] Desde entonces, varias ciudades colombianas han implementado el día sin carro, entre ellas Medellín, donde se acogió esta idea mediante el Acuerdo 21 del 2008 del Concejo de Medellín [14], y por el cual se institucionalizó el día social y ambiental sin carro en la ciudad; se señaló como fecha para su ejecución los días 22 de abril de cada año, ya que coincide con la celebración del día de la tierra. Con esta medida se pretende desmovilizar vehículos particulares y mejorar sustancialmente la problemática ambiental en cuanto a la disminución de gases, y el mejoramiento de la movilidad. Cabe anotar que el día sin carro pretende que en Medellín se realicen desplazamientos sin utilizar el automóvil particular, es por ello que no se hizo ninguna restricción en cuanto a transporte de servicio público, motocicletas, transportes de carga y demás trasportes no carburados. En razón al cambio de condiciones normales de flujo vehicular en Medellín, se realizó esta investigación para comparar los niveles de ruido urbano, entre un día sin carro y un día con carro; sin que con esto se pretenda juzgar lo realizado durante este día, pues de hecho, se reconoce que dicha medida genera importantes beneficios a la ciudad, sino con el ánimo de llegar a un resultado verificable científicamente. J. Rendón, J. R. Gómez, A. F. Pardo, R. A. Monsalve y D. M. Murillo G. Índices de ruido urbano en el día sin carro en la ciudad de Medellín. Ing. USBMed, ISSN: , Vol 1, No. 1, pp Jul-Dic

65 Es entonces válido precisar, una vez se tienen las normas, los reales beneficios que el día sin carro trae a la ciudad, referentes a la contaminación producida por ruido, y para lo que se plantea la siguiente pregunta por la inmovilización de la gran mayoría del parque automotor particular en la ciudad de Medellín disminuyen los niveles de ruido ambiental? 2. MARCO CONCEPTUAL 2.1 Las ciclo rutas y las ciclo vías en el día sin carro Esta iniciativa, contemplada en el Acuerdo Municipal No. 21 de 2008 expedido por el Concejo de Medellín, tiende, como lo señala el artículo segundo a Promover alternativas de desplazamiento particular y masivo menos traumáticas para el ambiente [14]. Dentro de la logística implementada para el día sin carro en Medellín, se ha dispuesto, en los dos años que lleva esta medida el primer año de manera voluntaria, de tres ciclo vías comprendidas así: calle 30 desde la Universidad de Medellín hasta la carrera 65, para unirse con la ciclo ruta de la 65; la calle San Juan, desde la carrera 80 hasta Carabobo, permitiendo llegar al Centro Administrativo La Alpujarra, y la calle Colombia desde la carrera 80 hasta empalmar en con la ciclo ruta de la 65 [11]. Estas tres ciclo vías, planteadas para el día sin carro, han sido designadas estratégicamente para facilitar el desplazamiento de gran parte del sector centro occidental y un poco el sur occidental de la ciudad hacia el centro. Las ciclo rutas, que en la actualidad se encuentran construidas, también benefician este mismo sector y un poco al sector sur occidental, como se puede apreciar en la Fig ; esto en razón a que con estas rutas solo se benefician algunos sectores, desvinculando al resto de la ciudad. A esto se suma que no todas las personas conocen sobre la importancia de esta práctica y prefieren transportarse en servicio público, absteniéndose de utilizar otras alternativas de desplazamiento como la bicicleta. De acuerdo con el balance que entregó el alcalde actual de Medellín, Alonso Salazar Jaramillo, personas utilizaron las tres ciclo vías en el día sin carro en el 2010; lo que resulta respecto de la intención de fondo que se tiene sobre esta práctica. De esta manera se hace necesario que en el día sin carro se pueda contar con vías alternas que incentiven la movilidad de los peatones en medios diferentes al servicio público, situación que actualmente no cumplen con las expectativas, a pesar de la preparación de vías recreativas abiertas. 2.2 El ruido urbano y sus efectos en la salud El ruido urbano es el que genera la variedad de fuentes móviles y fijas que hay en una zona determinada, exceptuando la zona industrial [3]. Las personas expuestas durante largos periodos de tiempo a altos niveles de ruido corren el riesgo de padecer patologías físicas y psíquicas. Diversos estudios de la Organización Mundial de la Salud señalan que el ruido puede provocar distintas clases de respuesta reflejas que, si se mantienen, generan en el sujeto patrones de inadaptación psico-fisiológica con repercusiones neuro-sensoriales, endocrinas, vasculares y digestivas; también causan trastornos del equilibrio, sensaciones de malestar y fatiga psicológica, que pueden alterar los niveles de rendimiento [6]. Dentro de algunos de los trastornos y enfermedades derivados de la exposición al ruido tenemos [3]: Deficiencia auditiva. Hace referencia a la pérdida del umbral de escucha; lo que causa problemas de gran consideración en el momento en el que el individuo se tiene que comunicar con los demás. Fig. 1. Mapa de Ciclo-rutas en Medellín [10] Nota: en línea azul ciclo rutas construidas, en línea roja ciclo rutas propuestas. Pese a que la ciudad cuenta con estas ciclo rutas y a que piensa abrir 3 ciclo vías, existen vacíos en cuanto a la finalidad del día sin carro, y que se señalan en el Artículo segundo del Acuerdo 21 de Perturbación del sueño. La persona no obtiene los beneficios de un buen descanso, según la guía para el ruido urbano de la OMS, obedece a la dificultad para conciliar el sueño, interrupción del sueño, alteración en la profundidad del sueño, cambios en la presión arterial y en la frecuencia cardíaca, incremento del pulso, vasoconstricción, variación en la respiración, arritmia cardíaca y mayores movimientos corporales, lo cual se ve reflejado en el bajo rendimiento de la persona, en el estado de ánimo y en el aumento en los niveles de cansancio. 79

66 Perturbaciones de las funciones fisiológicas. Fuentes como aeropuertos, industrias y calles que presentan un índice elevado de ruido, afectan la funcionalidad del organismo humano y se presentan problemas de hipertensión y de cardiopatía. Incidencia sobre la salud mental. El ruido puede intensificar y acelerar el proceso de trastornos mentales en las personas que padecen de los mismos. La afección de la salud, el bienestar y la calidad de vida de las personas a causa de la disminución de la calidad ambiental, debida al fenómeno del ruido en las ciudades, lleva a incrementar la problemática social y como consecuencia el distanciamiento para que una ciudad cumpla con los objetivos de ser sostenible. 2.3 Generación de ruido en vehículos de motor de combustión interna Para esta investigación es importante conocer cómo emite ruido una fuente, que para este caso el transporte rodado de combustión interna Fig. 2. Las fuentes de ruido más relevantes que se encontraron en el parque automotor son: estrechamente ligado a la velocidad del automotor, el cual se va incrementando de manera logarítmica [8]. En la ciudad, las velocidades en la red de transporte público oscilan entre 5 y 26 Km/h. Las velocidades más bajas se presentan en el sector del centro de la ciudad con valores entre 5 y 13 Km/h, situación debida a la congestión vehicular en la zona y a la convergencia de la totalidad de las rutas a esta zona [18]. Estos niveles estarían generando niveles de ruido de emisión a 15 m aproximadamente entre 60 y 75 dba para vehículos entre 60 y 63 dba, motocicletas entre 58 y 62 dba, camiones medianos entre 68 y 69 dba, buses entre 69 y 70 dba y camiones pesados entre 74 y 75 dba [20]. La generación de este ruido en los vehículos se puede dividir en dos grupos: un grupo relacionado con la vibración mecánica de la llanta cuando entra en contacto con la superficie, como se ve en la Fig. 3; y el segundo grupo relacionado con la aerodinámica, cuando el aire es atraído hacia adentro de las hendiduras del neumático y luego es expulsado fuera de él, como se observa en la Fig. 4. Estos grupos dependen de los mismos factores para producir ruido, tipo de superficie, material y forma de las hendiduras de la llanta. Fig. 2. Incremento de ruido en dba, relacionado con el aumento de la velocidad del automotor [20] Nota: HT: Heavy Trucks (Camiones pesados), B: Buses, MT: Medium Trucks (Camiones medianos), MC: Motocicletas, A: Automóviles. El motor de combustión interna. El ruido que se presenta en estos vehículos es producido por el tamaño del motor, la velocidad y el sistema de combustión que, en su mayoría utilizan diesel para vehículos pesados y gasolina para vehículos livianos. Los niveles producidos por los vehículos de gasolina están por debajo de los emitidos por los de diesel, generalmente 20 db en un ancho de banda de 1250 Hz hasta los 2500 Hz [2]. Fricción de las llantas sobre el pavimento. El ruido producido por la fricción de las llantas sobre el pavimento es una de las fuentes de mayor importancia en cuanto a la emisión de ruido ambiental por parte de los vehículos de combustión interna; este fenómeno está Fig. 3. Vibración de la llanta en contacto con la superficie del pavimento [8] Fig. 4. Ruido aerodinámico producido por la llanta en contacto con la superficie del pavimento [8] 80

67 Ruido ocasionado por el motor. Cuando los vehículos están en movimiento se generan grandes fuerzas dentro del motor, que son transmitidas a la estructura interna. Estas fuerzas se dividen en dos: Fuerzas de combustión interna, debido a la presión en los cilindros. Fuerzas mecánicas, causadas por los demás componentes del motor. La vibración por estas fuerzas se hace presente en la estructura, para luego ser transmitida a los componentes externos que los radian como sonido [8]. Ruido producido en el tubo de escape. Los mofles o silenciadores son dispositivos usados en el ducto de escape de los gases, producidos por la combustión interna del motor, para prevenir que el sonido llegue al exterior a unos niveles muy altos. El ruido que se genera en el motor llega fuera del vehículo pero a niveles muy bajos en comparación con la fuente. 3. METODOLOGÍA 3.1 Revisión de la normativa A efectos de lograr una mejor contextualización sobre el tema a desarrollar en esta investigación, se hizo necesario consultar la normatividad vigente en Colombia en materia de medición de ruido ambiental; teniendo como referencia constante en este proceso investigativo las siguientes normas: El sonómetro se ubicó a 1.5 m del suelo y a 4 m de cualquier fachada, medidos horizontalmente, o en un punto equidistante entre los límites del espacio público correspondiente. Las mediciones se realizaron apoyadas en la norma ISO 1996 que avala la altura de 1.5 m. Así mismo, la norma colombiana de ICONTEC NTC 3522 recomienda una altura entre 1.2 y 1.5 m para mediciones al aire libre con equipo portátil [9]. La resolución 0627 en el capítulo II del anexo 3 avala el uso de la norma ISO 1996 [8]. El procedimiento de conteo de vehículos se realizó mediante cámaras y conteos en el sitio de medición; se dividió en dos categorías: el transporte liviano conformado por motocicletas, vehículos particulares, taxis y camionetas; y los vehículos pesados conformado por microbuses, buses y camiones. Elección de puntos. Con el día sin carro se presenta la oportunidad de observar un posible cambio en el paisaje sonoro de la ciudad Fig. 5 ; es así como, para poder tener una caracterización del entorno, se tomaron muestras significativas en puntos neurálgicos de la ciudad de Medellín, para cuya ubicación se recurrió a mapas de ruido proporcionados por el Área Metropolitana del Valle de Aburrá, y que fueron realizados por el Politécnico Colombiano Jaime Isaza Cadavid mediante el convenio 680/05 [3]. ISO 1996: Norma internacional que contiene la Descripción, medición y evaluación de ruido ambiental. Constitución Política de Colombia. Resolución 0627 de 2006 por la cual, el Ministerio de Ambiente, Vivienda y Desarrollo Territorial, establece la norma nacional de emisión de ruido y ruido ambiental. Acuerdo 21 de 2008, expedido por el Concejo de Medellín, mediante el cual se implementa el día social y ambiental sin carro. 3.2 Protocolos, elección de puntos, horarios e intervalos Protocolo de medición. El proceso de captura de los datos se realizó teniendo en cuenta el procedimiento de medición de ruido ambiental contenido en el capítulo 2 del Anexo 3 de la resolución 0627 de 2006, normativa colombiana vigente. Para realizar esta investigación se utilizó un sonómetro integrador tipo 2.01 db-metravib Solo 02. La velocidad del viento se midió con un Anemómetro Lutron LM-81 AM. El sonómetro cumple las especificaciones expuestas por la resolución 0627 de Fig. 5. Mapa de ruido de Medellín jornada diurna [5] Los puntos seleccionados fueron los siguientes: de la zona centro occidental se eligió la avenida del Ferrocarril frente al SENA, ubicada en la carrera 57 entre las calles 51 y 54; de la zona centro oriental, se eligió la calle San Juan frente al Centro Administrativo La Alpujarra, ubicada en la calle 44 entre las carreras 53ª y 52ª; de la zona sur oriental se eligió la avenida El Poblado, diagonal al centro comercial Monterrey, ubicada en la calle 10 con carrera 48; y la glorieta de la calle 33 al lado del Palacio Exposiciones, ubicada en la calle 33 con carrera 57. Así mismo, se tuvo en cuenta las vías exentas del día sin carro [11]: 81

68 Avenida las Palmas y su empalme hasta el sistema del río. Calle 10 entre el corredor del río hasta la Terminal de Transportes del Sur. Todos los puentes sobre el río, incluyendo sus lazos de salidas e ingresos. La autopista Norte desde el puente Acevedo hasta el límite con el Municipio de Bello. La Avenida Ferrocarril entre calles 34 y 37. Glorieta Éxito El Poblado. Carretera al Mar empalmando con la calle 65 a la altura de la avenida 80, incluida la loma de Robledo, hasta la transversal 73 vía El Volador, empalmando con la Transversal 78, hasta la carrera 67. Carrera 67 desde la transversal 78 hasta la calle 80. Calle 80 hasta la carrera 65, y por ésta hasta la glorieta de la Terminal de Transportes del Norte. Horarios e intervalos. Estas mediciones se hicieron durante periodos del día con ciertas características de actividad en la movilidad vehicular: para Monterrey se escogió una hora en la mañana para la hora pico entre las 6:30 y 8:30 AM; para la calle 33 se eligió un hora entre las 8:30 y 10:00 AM, franja que no comprende las horas pico; para La Alpujarra se tomó un horario entre las 12:00 M y las 14:00 PM, ya que para esta hora muchas personas se desplazan a sus casas a almorzar y muchos estudiantes terminan o inician sus jornadas académicas; por último, para la avenida Ferrocarril se realizaron mediciones entre las 17:30 y las 19:30 PM, nuevamente en hora pico. Con la selección de estos horarios se cubren todas las variaciones significativas de las emisiones de ruido y propagación. De esta forma, los intervalos de tiempo representaron una parte del ciclo del flujo vehicular durante las distintas horas del día, y juntos representan el ciclo completo durante un día normal, tal como lo estipula la ISO Capitulo 8.2 Selección del intervalo de tiempo de medición [4]. Al respecto, se hace importante resaltar que el día jueves 22 de abril de 2010, la restricción de circulación para autos particulares comenzó a las 6:00 AM y terminó a las 18:00 horas [16]. Para la elección del día con carro se tuvo en cuenta lo siguiente que, entre el 19 y el 23 de abril, el pico y placa para particulares en Medellín no fue obligatorio [16], por lo que se optó por medir el viernes 23 de abril, ya que si la desmovilización de los particulares durante el día sin carro traería posibles cambios en el paisaje sonoro de la ciudad, la inclusión de este en el tránsito sin ninguna restricción, evidenciaría con más detalle el cambio en los niveles de ruido urbano. Para cada una de las mediciones se estipularon intervalos de medida distribuidos uniformemente para tiempos de muestreo de medición de una hora, divida en dos períodos de 30 minutos: un período con ponderación temporal slow y otro con ponderación temporal impulsive. Este tiempo de medición está estipulado en el Articulo 5 Intervalo unitario de tiempo de medida de la resolución 0627 del 2006; así mismo, se realizaron mediciones en impulsive en cada punto, para poder corroborar si existe o no correcciones por impulsividad, que se contempla en el Anexo 2 de la misma resolución: Determinación de ajuste de los valores K específicamente la corrección Ki Correcciones por percepciones de impulsividad. 3.3 Toma de datos Para la recolección de la información en los puntos antes descritos, se contó con el apoyo de cuatro asistentes de medición, quienes guiados por un cronograma de trabajo, se desplazaron a los diferentes puntos, donde se depositaba la información del sonómetro en planillas previamente diseñadas, que posteriormente fueron analizadas por el equipo de trabajo. 4. ANÁLISIS DE RESULTADOS Resultado acústico. En la Tablas 1 y 2 se presentan los resultados acústicos del día sin carro en los distintos puntos de medición. TABLA 1 Resultados acústicos del día sin carro Punto [dba] [dba] (slow) (Imp) [dba] [dba] [dba] [dba] Alpujarra 78,9 78,7 87,2 74,6 81,9 75,5 Monterrey La Ferrocarril TABLA 2 Resultados acústicos del día con carro Punto [dba] [dba] (slow) (Imp) [dba] [dba] [dba] [dba] Alpujarra Monterrey La Ferrocarril Comparación de los resultados acústicos presentes en ambos días. De la información contenida en la Fig. 6 se puede concluir lo siguiente: Para los cuatro puntos seleccionados se observan variaciones entre los 0.1 dba y 1.2 dba, lo que demuestra que los niveles de ruido ambiental en ambos días fueron similares. En general en los dos días de medición se presentaron condiciones climáticas optimas, la velocidad del viento estuvo bastante baja, en promedio 0.5 m/s, a excepción de La Alpujarra donde se alcanzaron a percibir velocidades de 82

69 hasta 5 m/s en intervalos cortos de las medición del día sin carro. videos y 16 planillas de conteo automotor que se condensan en las Fig. 8 y 9. Fig. 6. Resultados acústicos Fig. 7. Resultados acústicos corregidos Correcciones. En las medición realizadas no se hicieron correcciones por impulsividad pero sí por tonalidad, como se muestra en la Tabla 3. TABLA 3 Correcciones por tonalidad PUNTO CORRECCIÓN FRECUENCIA (Hz) Alpujarra Día sin Percepción Neta carro Día Percepción Neta 3150 normal Ferrocarril Día sin No aplica - carro Día No aplica - normal La 33 Día sin No aplica - carro Día Percepción Neta normal Monterrey Día sin No aplica - carro Día normal No aplica - Fig. 8. Resultados del flujo vehicular liviano Tonalidad. Para determinar componentes tonales se hizo uso de la ecuación (2) en la frecuencia de interés. (2) Donde es el nivel de presión sonora de la banda que contiene el tono, es la media de los niveles de las dos bandas situadas inmediatamente por encima y por debajo de. [8] Se corrigió por tonalidad neta en La Alpujarra en el día sin carro y en el día con carro; además, a la calle 33 se le hizo corrección por percepción neta en el día con carro Fig. 7. Hechas las anteriores correcciones, establecidas por la resolución 0627 de 2006, se constató que los niveles de ruido ambiental se mantuvieron, con excepción de un cambio poco significativo en la calle 33 que no superó los 3 dba. Resultados de flujo vehicular. De los datos recolectados durante ambos días se obtuvo 8 Fig. 9. Resultados del flujo vehicular pesados Se observa que la mayor cantidad de flujo vehicular liviano que circuló durante el total de las mediciones, se concentró en la glorieta de Monterrey, con mayor incidencia en el día sin carro. Así mismo, no se aprecian disminuciones considerables en los niveles de flujo vehicular, con excepción de Monterrey, donde se presentó un incremento de vehiculos livianos en el día sin carro. Respecto al flujo vehicular pesado se puede apreciar un leve aumento en los puntos de la Alpujarra y el Ferrocarril. 5. CONCLUSIONES Los niveles se mantuvieron constantes tanto en el día sin carro como en el día con carro, indicando que no hubo disminución significativa de ruido ambiental en el día sin carro. 83

Elementos requeridos para crearlos (ejemplo: el compilador)

Elementos requeridos para crearlos (ejemplo: el compilador) Generalidades A lo largo del ciclo de vida del proceso de software, los productos de software evolucionan. Desde la concepción del producto y la captura de requisitos inicial hasta la puesta en producción

Más detalles

CHALLENGES IN THE DESIGN OF CYBER-PHYSICAL SYSTEMS DESAFÍOS EN EL DISEÑO DE SISTEMAS CYBER-FÍSICOS

CHALLENGES IN THE DESIGN OF CYBER-PHYSICAL SYSTEMS DESAFÍOS EN EL DISEÑO DE SISTEMAS CYBER-FÍSICOS CHALLENGES IN THE DESIGN OF CYBER-PHYSICAL SYSTEMS DESAFÍOS EN EL DISEÑO DE SISTEMAS CYBER-FÍSICOS John C. Chandy Connecticut University JC.Chandy@usa.com (Tipo de Artículo: REFLEXIÓN. Recibido el 20/09/2010.

Más detalles

Gestión de Configuración del Software

Gestión de Configuración del Software Gestión de Configuración del Software Facultad de Informática, ciencias de la Comunicación y Técnicas Especiales Herramientas y Procesos de Software Gestión de Configuración de SW Cuando se construye software

Más detalles

1. INTRODUCCIÓN 1.1 INGENIERÍA

1. INTRODUCCIÓN 1.1 INGENIERÍA 1. INTRODUCCIÓN 1.1 INGENIERÍA Es difícil dar una explicación de ingeniería en pocas palabras, pues se puede decir que la ingeniería comenzó con el hombre mismo, pero se puede intentar dar un bosquejo

Más detalles

CAPÍTULO 1 Instrumentación Virtual

CAPÍTULO 1 Instrumentación Virtual CAPÍTULO 1 Instrumentación Virtual 1.1 Qué es Instrumentación Virtual? En las últimas décadas se han incrementado de manera considerable las aplicaciones que corren a través de redes debido al surgimiento

Más detalles

Sistemas de Gestión de Calidad. Control documental

Sistemas de Gestión de Calidad. Control documental 4 Sistemas de Gestión de Calidad. Control documental ÍNDICE: 4.1 Requisitos Generales 4.2 Requisitos de la documentación 4.2.1 Generalidades 4.2.2 Manual de la Calidad 4.2.3 Control de los documentos 4.2.4

Más detalles

Software de Simulación aplicado a entornos de e-learning

Software de Simulación aplicado a entornos de e-learning Software de Simulación aplicado a entornos de e-learning 2009 Laboratorio de Investigación de Software Universidad Tecnológica Nacional Facultad Regional Córdoba Titulo del Proyecto Software de Simulación

Más detalles

Procesos Críticos en el Desarrollo de Software

Procesos Críticos en el Desarrollo de Software Metodología Procesos Críticos en el Desarrollo de Software Pablo Straub AgileShift Imagine una organización de desarrollo de software que consistentemente cumple los compromisos con sus clientes. Imagine

Más detalles

Interoperabilidad de Fieldbus

Interoperabilidad de Fieldbus 2002 Emerson Process Management. Todos los derechos reservados. Vea este y otros cursos en línea en www.plantwebuniversity.com. Fieldbus 201 Interoperabilidad de Fieldbus Generalidades Qué es interoperabilidad?

Más detalles

PRUEBAS DE SOFTWARE TECNICAS DE PRUEBA DE SOFTWARE

PRUEBAS DE SOFTWARE TECNICAS DE PRUEBA DE SOFTWARE PRUEBAS DE SOFTWARE La prueba del software es un elemento crítico para la garantía de la calidad del software. El objetivo de la etapa de pruebas es garantizar la calidad del producto desarrollado. Además,

Más detalles

A continuación resolveremos parte de estas dudas, las no resueltas las trataremos adelante

A continuación resolveremos parte de estas dudas, las no resueltas las trataremos adelante Modulo 2. Inicio con Java Muchas veces encontramos en nuestro entorno referencias sobre Java, bien sea como lenguaje de programación o como plataforma, pero, que es en realidad Java?, cual es su historia?,

Más detalles

3.1 INGENIERIA DE SOFTWARE ORIENTADO A OBJETOS OOSE (IVAR JACOBSON)

3.1 INGENIERIA DE SOFTWARE ORIENTADO A OBJETOS OOSE (IVAR JACOBSON) 3.1 INGENIERIA DE SOFTWARE ORIENTADO A OBJETOS OOSE (IVAR JACOBSON) 3.1.1 Introducción Este método proporciona un soporte para el diseño creativo de productos de software, inclusive a escala industrial.

Más detalles

Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta

Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta Descripción general de la solución Ofrezca la nueva tendencia de innovación empresarial con un entorno de red abierta Lo que aprenderá A medida que tecnologías como la nube, la movilidad, los medios sociales

Más detalles

Plan de estudios ISTQB: Nivel Fundamentos

Plan de estudios ISTQB: Nivel Fundamentos Plan de estudios ISTQB: Nivel Fundamentos Temario 1. INTRODUCCIÓN 2. FUNDAMENTOS DE PRUEBAS 3. PRUEBAS A TRAVÉS DEL CICLO DE VIDA DEL 4. TÉCNICAS ESTÁTICAS 5. TÉCNICAS DE DISEÑO DE PRUEBAS 6. GESTIÓN DE

Más detalles

Capítulo 5. Cliente-Servidor.

Capítulo 5. Cliente-Servidor. Capítulo 5. Cliente-Servidor. 5.1 Introducción En este capítulo hablaremos acerca de la arquitectura Cliente-Servidor, ya que para nuestra aplicación utilizamos ésta arquitectura al convertir en un servidor

Más detalles

Introducción En los años 60 s y 70 s cuando se comenzaron a utilizar recursos de tecnología de información, no existía la computación personal, sino que en grandes centros de cómputo se realizaban todas

Más detalles

Introducción. Metadatos

Introducción. Metadatos Introducción La red crece por momentos las necesidades que parecían cubiertas hace relativamente poco tiempo empiezan a quedarse obsoletas. Deben buscarse nuevas soluciones que dinamicen los sistemas de

Más detalles

Ingº CIP Fabian Guerrero Medina Master Web Developer-MWD

Ingº CIP Fabian Guerrero Medina Master Web Developer-MWD 1 Java es un lenguaje de programación de Sun Microsystems originalmente llamado "Oak. James Gosling Bill Joy 2 Oak nació para programar pequeños dispositivos electrodomésticos, como los asistentes personales

Más detalles

CPS Cyber-Physical Systems

CPS Cyber-Physical Systems CPS Cyber-Physical Systems Concepto Características y Propiedades Arquitectura Aplicaciones Diferencias entre OIT y CPS Los CPS son complejos? Propuesta Concepto Sistemas ciber-físicos (CPS) es la sinergia

Más detalles

Implementando un ERP La Gestión del Cambio

Implementando un ERP La Gestión del Cambio Artículos> Implementando un ERP - La Gestión del Cambio Artículo Implementando un ERP La Gestión del Cambio 1 Contenido Sumario Ejecutivo 3 Los sistemas ERP flexibilizan la gestión de la empresa y su cadena

Más detalles

Primer Foro Universitario de Software Libre

Primer Foro Universitario de Software Libre Distribuciones de Software Libre para las carreras universitarias Lo bueno, lo malo y lo feo. Pablo Alejandro Olguín Aguilar Instituto de Investigaciones en Educación pablo.olguin10@gmail.com Palabras

Más detalles

Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica

Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica Competencias generales vinculadas a los distintos módulos Módulo de Formación Básica C1. Capacidad para la resolución de los problemas matemáticos que puedan plantearse en la ingeniería. Aptitud para aplicar

Más detalles

Norma ISO 14001: 2015

Norma ISO 14001: 2015 Norma ISO 14001: 2015 Sistema de Gestión Medioambiental El presente documento es la versión impresa de la página www.grupoacms.com Si desea más información sobre la Norma ISO 14001 u otras normas relacionadas

Más detalles

INGENIERÍA DEL SOFTWARE

INGENIERÍA DEL SOFTWARE INGENIERÍA DEL SOFTWARE Sesión No. 2 Nombre: Procesos de ingeniería del software INGENIERÍA DEL SOFTWARE 1 Contextualización La ingeniería de software actualmente es muy importante, pues con los avances

Más detalles

Grado en Ingeniería Informática

Grado en Ingeniería Informática Grado en Ingeniería Informática Competencias Generales y trasversales De acuerdo con la resolución del Consejo de Universidades de fecha 3 de marzo de 2009, para obtener este título de grado en ingeniería

Más detalles

ISO9001:2015. Todos los certificados emitidos en este periodo tienen una fecha de caducidad de 15 de septiembre de 2018.

ISO9001:2015. Todos los certificados emitidos en este periodo tienen una fecha de caducidad de 15 de septiembre de 2018. ISO9001:2015 PLAN DE TRANSICIÓN Tras la publicación de la nueva versión de la norma ISO9001 el pasado mes de septiembre se inicia un periodo de convivencia entre las dos versiones de la norma. Este periodo

Más detalles

INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas

INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas INTRODUCCIÓN: Una Visión Global del Proceso de Creación de Empresas 1 INTRODUCCIÓN. Una visión global del proceso de creación de empresas Cuando se analiza desde una perspectiva integral el proceso de

Más detalles

TECNÓLOGO EN INFORMÁTICA PLAN DE ESTUDIOS

TECNÓLOGO EN INFORMÁTICA PLAN DE ESTUDIOS Administración Nacional de Universidad de la República Educación Pública Facultad de Ingenieria CF Res..0.07 Consejo Directivo Central Consejo Directivo Central Res..05.07 Res. 17.0.07 TECNÓLOGO EN INFORMÁTICA

Más detalles

Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere.

Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere. UNIVERSIDAD DE CARABOBO FACULTAD DE CIENCIA Y TECNOLOGÍA DIRECCION DE EXTENSION COORDINACION DE PASANTIAS Modificación y parametrización del modulo de Solicitudes (Request) en el ERP/CRM Compiere. Pasante:

Más detalles

Test de intrusión (Penetration Test) Introducción

Test de intrusión (Penetration Test) Introducción Test de intrusión (Penetration Test) Introducción Nos encontramos en una época en donde las empresas están sufriendo ataques informáticos cada vez en forma más asidua, basta con ver los informes anuales

Más detalles

LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS

LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS LA LOGÍSTICA COMO FUENTE DE VENTAJAS COMPETITIVAS Los clientes compran un servicio basandose en el valor que reciben en comparacion con el coste en el que incurren. Por, lo tanto, el objetivo a largo plazo

Más detalles

EL MARKETING RELACIONAL Y NUEVAS TENDENCIAS DE MARKETING

EL MARKETING RELACIONAL Y NUEVAS TENDENCIAS DE MARKETING APARTADO: 4 DIAPOSITIVA Nº: 2 Factores clave del éxito en los proyectos de CRM PDF Nº 1: Éxitos y fracasos del CRM Éxitos y fracasos del CRM En este mundo globalizado lo más importante para las pequeñas,

Más detalles

IAP 1005 - CONSIDERACIONES PARTICULARES SOBRE LA AUDITORÍA DE LAS EMPRESAS DE REDUCIDA DIMENSIÓN

IAP 1005 - CONSIDERACIONES PARTICULARES SOBRE LA AUDITORÍA DE LAS EMPRESAS DE REDUCIDA DIMENSIÓN IAP 1005 - CONSIDERACIONES PARTICULARES SOBRE LA AUDITORÍA DE LAS EMPRESAS DE REDUCIDA DIMENSIÓN Introducción 1. Las Normas Internacionales de Auditoría (NIA) se aplican a la auditoría de la información

Más detalles

Informe de Seguimiento. Máster Universitario en Dirección y Administración de Empresas-MBA. Empresas-MBA de la Universidad de Málaga

Informe de Seguimiento. Máster Universitario en Dirección y Administración de Empresas-MBA. Empresas-MBA de la Universidad de Málaga Informe de Seguimiento Máster Universitario en Dirección y Administración de Empresas-MBA de la Universidad de Málaga 1. ÁMBITO NORMATIVO El artículo 27 del Real Decreto 1393/2007, de 29 de octubre, modificado

Más detalles

PROGRAMA FIDES-AUDIT

PROGRAMA FIDES-AUDIT PROGRAMA FIDES-AUDIT INFORME FINAL DE EVALUACIÓN DEL DISEÑO DEL SISTEMA DE GARANTÍA INTERNA DE LA CALIDAD FACULTAD DE ADMINISTRACIÓN Y DIRECCIÓN DE EMPRESAS UNIVERSIDADE DE SANTIAGO DE COMPOSTELA 10/05/11

Más detalles

Charlas para la Gestión del Mantenimiento Fernando Espinosa Fuentes

Charlas para la Gestión del Mantenimiento Fernando Espinosa Fuentes Charlas para la Gestión del Mantenimiento Fernando Espinosa Fuentes Conseguir una alta eficiencia de los activos es un reto importante ya que tiene un impacto significativo sobre los beneficios. Afecta

Más detalles

UNIVERSIDAD DE SALAMANCA

UNIVERSIDAD DE SALAMANCA UNIVERSIDAD DE SALAMANCA FACULTAD DE CIENCIAS INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS Resumen del trabajo práctico realizado para la superación de la asignatura Proyecto Fin de Carrera. TÍTULO SISTEMA

Más detalles

Figure 7-1: Phase A: Architecture Vision

Figure 7-1: Phase A: Architecture Vision Fase A Figure 7-1: Phase A: Architecture Vision Objetivos: Los objetivos de la fase A son: Enfoque: Desarrollar una visión de alto nivel de las capacidades y el valor del negocio para ser entregado como

Más detalles

Modelos de Ciclo de Vida de Desarrollo de Software en el Contexto de la Industria Colombiana de Software

Modelos de Ciclo de Vida de Desarrollo de Software en el Contexto de la Industria Colombiana de Software Modelos de Ciclo de Vida de Desarrollo de Software en el Contexto de la Industria Colombiana de Software Hugo F. Arboleda Jiménez. MSc. Docente-Investigador, Facultad de Ingenierías, Universidad de San

Más detalles

Comunicación: Herramientas Informáticas de Apoyo a la Educación: Experiencias. Autor: Ing. Hernán Mariño hernanmarino@uca.edu.ar

Comunicación: Herramientas Informáticas de Apoyo a la Educación: Experiencias. Autor: Ing. Hernán Mariño hernanmarino@uca.edu.ar Comunicación: Herramientas Informáticas de Apoyo a la Educación: Experiencias. Autor: Ing. Hernán Mariño hernanmarino@uca.edu.ar Pontificia Universidad Católica Argentina Facultad de Ciencias Fisicomatemáticas

Más detalles

Cuarto grado de Primaria

Cuarto grado de Primaria Cuarto grado de Primaria Índice Presentación... 5 Orientaciones y recomendaciones para el uso de las unidades didácticas y sesiones de aprendizaje... 6 COMUNICACIÓN... 11 Unidad didáctica 1 : Nos organizamos

Más detalles

Diseño orientado al flujo de datos

Diseño orientado al flujo de datos Diseño orientado al flujo de datos Recordemos que el diseño es una actividad que consta de una serie de pasos, en los que partiendo de la especificación del sistema (de los propios requerimientos), obtenemos

Más detalles

ESTRATEGIA DE DINAMARCA: INFORME SOBRE EL FUTURO DEL ENTORNO LABORAL

ESTRATEGIA DE DINAMARCA: INFORME SOBRE EL FUTURO DEL ENTORNO LABORAL ESTRATEGIA DE DINAMARCA: INFORME SOBRE EL FUTURO DEL ENTORNO LABORAL NUEVAS PRIORIDADES PARA EL ENTORNO LABORAL ESTRATEGIA DE DINAMARCA: INFORME SOBRE EL FUTURO DEL ENTORNO LABORAL Página 1 ÍNDICE INTRODUCCIÓN

Más detalles

Seminario Electrónico de Soluciones Tecnológicas sobre VPNs de Extranets

Seminario Electrónico de Soluciones Tecnológicas sobre VPNs de Extranets Seminario Electrónico de Soluciones Tecnológicas sobre VPNs de Extranets 1 de 12 Seminario Electrónico de Soluciones Tecnológicas sobre VPNs de Extranets 3 Bienvenida. 4 Objetivos. 5 Interacciones de Negocios

Más detalles

Administración del conocimiento y aprendizaje organizacional.

Administración del conocimiento y aprendizaje organizacional. Capítulo 2 Administración del conocimiento y aprendizaje organizacional. 2.1 La Importancia Del Aprendizaje En Las Organizaciones El aprendizaje ha sido una de las grandes necesidades básicas del ser humano,

Más detalles

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia. DISCOS RAID Raid: redundant array of independent disks, quiere decir conjunto redundante de discos independientes. Es un sistema de almacenamiento de datos que utiliza varias unidades físicas para guardar

Más detalles

Metodologías de diseño de hardware

Metodologías de diseño de hardware Capítulo 2 Metodologías de diseño de hardware Las metodologías de diseño de hardware denominadas Top-Down, basadas en la utilización de lenguajes de descripción de hardware, han posibilitado la reducción

Más detalles

Gestión de la Configuración

Gestión de la Configuración Gestión de la ÍNDICE DESCRIPCIÓN Y OBJETIVOS... 1 ESTUDIO DE VIABILIDAD DEL SISTEMA... 2 ACTIVIDAD EVS-GC 1: DEFINICIÓN DE LOS REQUISITOS DE GESTIÓN DE CONFIGURACIÓN... 2 Tarea EVS-GC 1.1: Definición de

Más detalles

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio).

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio). 1 GLOSARIO A continuación se definen, en orden alfabético, los conceptos básicos que se han abordado a lo largo del desarrollo de la metodología para la gestión de requisitos bajo la Arquitectura Orientada

Más detalles

Código del programa: PEMDE. Programa Experto en MANEJO DE DATOS CON EXCEL. Modalidad: Virtual. Descripción del programa

Código del programa: PEMDE. Programa Experto en MANEJO DE DATOS CON EXCEL. Modalidad: Virtual. Descripción del programa Código del programa: PEMDE Programa Experto en MANEJO DE DATOS CON EXCEL Modalidad: Virtual Descripción del programa 1 Presentación del programa Justificación Microsoft Excel es la herramienta de manejo

Más detalles

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente

Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente Capítulo 4. Requisitos del modelo para la mejora de la calidad de código fuente En este capítulo definimos los requisitos del modelo para un sistema centrado en la mejora de la calidad del código fuente.

Más detalles

GeneXus BPM Suite X. Última actualización: 01 de Setiembre de 2008

GeneXus BPM Suite X. Última actualización: 01 de Setiembre de 2008 Última actualización: 01 de Setiembre de 2008 Copyright Artech Consultores S. R. L. 1988-2008. Todos los derechos reservados. Este documento no puede ser reproducido en cualquier medio sin el consentimiento

Más detalles

Como lo expresamos cuando describimos el problema objeto de

Como lo expresamos cuando describimos el problema objeto de Como lo expresamos cuando describimos el problema objeto de esta investigación, durante su desarrollo buscamos aproximarnos a las características y las condiciones de posibilidad de las prácticas académicas

Más detalles

DIRECCIÓN DE SERVICIO PROFESIONAL ELECTORAL ING. JOSE LUIS IXTLAPALE FLORES

DIRECCIÓN DE SERVICIO PROFESIONAL ELECTORAL ING. JOSE LUIS IXTLAPALE FLORES PLAN DE TRABAJO 2012 DIRECCIÓN DE SERVICIO PROFESIONAL ELECTORAL ING. JOSE LUIS IXTLAPALE FLORES La Dirección de Servicio Profesional Electoral, como Órgano Ejecutivo del Instituto Electoral de Tlaxcala,

Más detalles

PROPÓSITO... 2 DETERMINANTES PARA UNA BUENA EXPERIENCIA DE USO...

PROPÓSITO... 2 DETERMINANTES PARA UNA BUENA EXPERIENCIA DE USO... Tabla de Contenido PROPÓSITO... 2 DETERMINANTES PARA UNA BUENA EXPERIENCIA DE USO... 2 1. LA PRESENCIA DE INFORMACIÓN Y AYUDA ÚTIL PARA COMPLETAR LOS TRÁMITES EN LÍNEA.... 2 2. LA DISPONIBILIDAD DE DIVERSOS

Más detalles

Introducción a la Firma Electrónica en MIDAS

Introducción a la Firma Electrónica en MIDAS Introducción a la Firma Electrónica en MIDAS Firma Digital Introducción. El Módulo para la Integración de Documentos y Acceso a los Sistemas(MIDAS) emplea la firma digital como método de aseguramiento

Más detalles

Guía de Planificación Estratégica de la Informática Educativa

Guía de Planificación Estratégica de la Informática Educativa Cierre de Brecha Digital Guía de Planificación Estratégica de la Informática Educativa Dirigida al Sostenedor y al Establecimiento Educacional Estimado Sostenedor y Director, El Ministerio de Educación

Más detalles

LINEAMIENTOS DE RENDICIÓN DE CUENTAS DE LA CREG

LINEAMIENTOS DE RENDICIÓN DE CUENTAS DE LA CREG LINEAMIENTOS DE RENDICIÓN DE CUENTAS DE LA CREG La política de rendición de cuentas establecida por el Gobierno Nacional a través del documento CONPES 3654 de 2010 busca consolidar una cultura de apertura

Más detalles

Control Estadístico del Proceso. Ing. Claudia Salguero Ing. Alvaro Díaz

Control Estadístico del Proceso. Ing. Claudia Salguero Ing. Alvaro Díaz Control Estadístico del Proceso Ing. Claudia Salguero Ing. Alvaro Díaz Control Estadístico del Proceso Es un conjunto de herramientas estadísticas que permiten recopilar, estudiar y analizar la información

Más detalles

LA REVOLUCIÓN DE LOS SISTEMAS DE INFORMACIÓN (S.I.) Introducción PORQUÉ SISTEMAS DE INFORMACIÓN? El Competitivo Entorno de los Negocios

LA REVOLUCIÓN DE LOS SISTEMAS DE INFORMACIÓN (S.I.) Introducción PORQUÉ SISTEMAS DE INFORMACIÓN? El Competitivo Entorno de los Negocios LA REVOLUCIÓN DE LOS SISTEMAS DE INFORMACIÓN (S.I.) Introducción Tanto empresas grandes como pequeñas usan Sistemas de Información y Redes para realizar una mayor proporción de sus actividades electrónicamente,

Más detalles

ISO 9001:2000 DOCUMENTO INFORMATIVO DOCUMENTO ELABORADO POR CHRISTIAN NARBARTE PARA EL IVECE

ISO 9001:2000 DOCUMENTO INFORMATIVO DOCUMENTO ELABORADO POR CHRISTIAN NARBARTE PARA EL IVECE ISO 9001:2000 DOCUMENTO INFORMATIVO DOCUMENTO ELABORADO POR CHRISTIAN NARBARTE PARA EL IVECE MARZO 2007 Este documento contesta las preguntas más frecuentes que se plantean las organizaciones que quieren

Más detalles

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas:

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas: SISTEMAS DISTRIBUIDOS DE REDES 1. SISTEMAS DISTRIBUIDOS Introducción y generalidades La computación desde sus inicios ha sufrido muchos cambios, desde los grandes equipos que permitían realizar tareas

Más detalles

Norma ISO 14001: 2004

Norma ISO 14001: 2004 Norma ISO 14001: 2004 Sistema de Gestión Ambiental El presente documento es la versión impresa de la página www.grupoacms.com Si desea más información sobre la Norma ISO 14001 u otras normas relacionadas

Más detalles

PROCEDIMIENTO ESPECÍFICO. Código A-VI-02-A-1 Edición 0

PROCEDIMIENTO ESPECÍFICO. Código A-VI-02-A-1 Edición 0 Índice 1. TABLA RESUMEN... 2 2. OBJETO... 2 3. ALCANCE... 2 4. RESPONSABILIDADES... 3 5. ENTRADAS... 3 6. SALIDAS... 3 7. PROCESOS RELACIONADOS... 3 8. DIAGRAMA DE FLUJO... 4 9. DESARROLLO... 5 9.1. ANÁLISIS

Más detalles

CURSO BÁSICO DE MEDIO AMBIENTE

CURSO BÁSICO DE MEDIO AMBIENTE PARQUE CIENTÍFICO TECNOLÓGICO DE GIJÓN CTRA. CABUEÑES 166, 33203 GIJÓN TELS 985 099 329 / 984 190 922 CURSO BÁSICO DE MEDIO AMBIENTE Página 1 de 5 PROGRAMA DEL MÓDULO 1. CONCEPTOS Y DEFINICIONES. 2. SISTEMA

Más detalles

Cuándo y qué virtualizar? Cuándo y qué virtualizar? 1

Cuándo y qué virtualizar? Cuándo y qué virtualizar? 1 Cuándo y qué virtualizar? Cuándo y qué virtualizar? 1 Por qué surge la virtualización? En proyectos de infraestructuras informáticas muchos responsables de IT se sienten más confortables con diseños basados

Más detalles

Arquitectura de Aplicaciones

Arquitectura de Aplicaciones 1 Capítulo 13: Arquitectura de aplicaciones. - Sommerville Contenidos del capítulo 13.1 Sistemas de procesamiento de datos 13.2 Sistemas de procesamiento de transacciones 13.3 Sistemas de procesamiento

Más detalles

El ABC del ERP. (Christopher Koch)

El ABC del ERP. (Christopher Koch) El ABC del ERP. (Christopher Koch) La aparición de los sistemas de gestión ERP (Planificación de recursos empresariales) parece ir lógicamente unida a la idea de la empresa sin divisiones en departamentos

Más detalles

Informe final de evaluación del seguimiento de la implantación de títulos oficiales GRADO EN INGENIERÍA DE ORGANIZACIÓN INDUSTRIAL

Informe final de evaluación del seguimiento de la implantación de títulos oficiales GRADO EN INGENIERÍA DE ORGANIZACIÓN INDUSTRIAL Informe final de evaluación del seguimiento de la implantación de títulos oficiales 2014 GRADO EN INGENIERÍA DE ORGANIZACIÓN INDUSTRIAL Facultad de Ciencias Técnicas e Ingeniería UDIMA INFORMACIÓN PUBLICA

Más detalles

CMMI (Capability Maturity Model Integrated)

CMMI (Capability Maturity Model Integrated) CMMI (Capability Maturity Model Integrated) El SEI (software engineering institute) a mediados de los 80 desarrolló el CMM (modelo de madurez de la capacidad de software). CMMI: CMM integrado, una mezcla

Más detalles

Proceso Unificado de Rational PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes:

Proceso Unificado de Rational PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes: PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes: 1. Proporcionar una guía de actividades para el trabajo en equipo. (Guía detallada para el desarrollo

Más detalles

SÍNTESIS Y PERSPECTIVAS

SÍNTESIS Y PERSPECTIVAS SÍNTESIS Y PERSPECTIVAS Los invitamos a observar, a identificar problemas, pero al mismo tiempo a buscar oportunidades de mejoras en sus empresas. REVISIÓN DE CONCEPTOS. Esta es la última clase del curso.

Más detalles

DE VIDA PARA EL DESARROLLO DE SISTEMAS

DE VIDA PARA EL DESARROLLO DE SISTEMAS MÉTODO DEL CICLO DE VIDA PARA EL DESARROLLO DE SISTEMAS 1. METODO DEL CICLO DE VIDA PARA EL DESARROLLO DE SISTEMAS CICLO DE VIDA CLÁSICO DEL DESARROLLO DE SISTEMAS. El desarrollo de Sistemas, un proceso

Más detalles

CURSO COORDINADOR INNOVADOR

CURSO COORDINADOR INNOVADOR CURSO COORDINADOR INNOVADOR PRESENTACIÓN La tarea que el Ministerio de Educación se propone a través de Enlaces, en relación al aseguramiento del adecuado uso de los recursos, con el fin de lograr un impacto

Más detalles

Análisis del Sistema de Información

Análisis del Sistema de Información Análisis del Sistema de Información 1 1. Definición y objetivos análisis.(del gr. ἀνάλυσις). 1. m. Distinción y separación de las partesdeun todo hasta llegar a conocer sus principios o elementos. 2. m.

Más detalles

Quiénes Somos? grupo interdisciplinario de gran conocimiento y experiencia técnicafuncional en el mercado asegurador

Quiénes Somos? grupo interdisciplinario de gran conocimiento y experiencia técnicafuncional en el mercado asegurador Perfil de Plan-IT Plan-IT es una compañía integradora de soluciones de información fundada en el año 2007. Respaldada por un grupo interdisciplinario de gran conocimiento y experiencia técnicafuncional

Más detalles

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología La metodología para el desarrollo de software es un modo sistemático de realizar, gestionar y administrar un proyecto

Más detalles

El modelo de ciclo de vida cascada, captura algunos principios básicos:

El modelo de ciclo de vida cascada, captura algunos principios básicos: Ciclo de Vida del Software Un modelo de ciclo de vida define el estado de las fases a través de las cuales se mueve un proyecto de desarrollo de software. El primer ciclo de vida del software, "Cascada",

Más detalles

1. Descripción y objetivos

1. Descripción y objetivos Pruebas 1 1. Descripción y objetivos Las pruebas son prácticas a realizar en diversos momentos de la vida del sistema de información para verificar: El correcto funcionamiento de los componentes del sistema.

Más detalles

App para realizar consultas al Sistema de Información Estadística de Castilla y León

App para realizar consultas al Sistema de Información Estadística de Castilla y León App para realizar consultas al Sistema de Información Estadística de Castilla y León Jesús M. Rodríguez Rodríguez rodrodje@jcyl.es Dirección General de Presupuestos y Estadística Consejería de Hacienda

Más detalles

implantación Fig. 1. Ciclo de vida tradicional

implantación Fig. 1. Ciclo de vida tradicional 1. Ciclo de vida tradicional de los sistemas de software En ingeniería de software, la descripción tradicional del ciclo de vida del software está basada en un modelo conocido como el modelo de cascada

Más detalles

PLANIFICACIÓN ESTRATÉGICA: CONCEPTO Y ASPECTOS BÁSICOS.

PLANIFICACIÓN ESTRATÉGICA: CONCEPTO Y ASPECTOS BÁSICOS. PLANIFICACIÓN ESTRATÉGICA: CONCEPTO Y ASPECTOS BÁSICOS. QUÉ ES LA PLANIFICACIÓN? Planificar no es adivinar el futuro, sino más bien, es tomar un conjunto de decisiones que llevadas a la práctica a través

Más detalles

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN Tabla de Contenidos LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN... 1 Tabla de Contenidos... 1 General... 2 Uso de los Lineamientos Estándares...

Más detalles

Ingeniería de Software. Pruebas

Ingeniería de Software. Pruebas Ingeniería de Software Pruebas Niveles de prueba Pruebas unitarias Niveles Pruebas de integración Pruebas de sistema Pruebas de aceptación Alpha Beta Niveles de pruebas Pruebas unitarias Se enfocan en

Más detalles

CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA

CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA En el capítulo anterior se describió la situación inicial en la que se encontraba la Coordinación de Cómputo Académico (CCA) del Departamento de Ingenierías (DI) de la

Más detalles

TECNOLOGÍA DE LA INFORMACIÓN PARA EL APRENDIZAJE DE LA ADMINISTRACIÓN DE PROYECTOS

TECNOLOGÍA DE LA INFORMACIÓN PARA EL APRENDIZAJE DE LA ADMINISTRACIÓN DE PROYECTOS TECNOLOGÍA DE LA INFORMACIÓN PARA EL APRENDIZAJE DE LA ADMINISTRACIÓN DE PROYECTOS Domingo Vega T. Facultad de Ingeniería, Departamento de Ingeniería Industrial, Universidad de La Serena dvega@userena.cl

Más detalles

Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual

Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual Las diez cosas que usted debe saber sobre las LICENCIAS de los derechos de Propiedad Industrial e Intelectual 1.- Qué se entiende por Transferencia de Tecnología?. La transferencia de tecnología es el

Más detalles

FACULTAD DE CONTADURIA Y CIENCIAS ADMINISTRATIVAS FINANZAS I NORMAS DE INFORMACION FINANCIERA

FACULTAD DE CONTADURIA Y CIENCIAS ADMINISTRATIVAS FINANZAS I NORMAS DE INFORMACION FINANCIERA Normas de Información Financiera Durante más de 30 años, la Comisión de Principios de Contabilidad (CPC) del Instituto Mexicano de Contadores Públicos A. C. (IMCP) fue la encargada de emitir la normatividad

Más detalles

CAPÍTULO 2 Sistemas De Base De Datos Multiusuarios

CAPÍTULO 2 Sistemas De Base De Datos Multiusuarios CAPÍTULO 2 Sistemas De De Multiusuarios Un sistema multiusuario es un sistema informático que da servicio, manera concurrente, a diferentes usuarios mediante la utilización compartida sus recursos. Con

Más detalles

Informe final de evaluación del seguimiento de la implantación de títulos oficiales GRADO EN PROTOCOLO Y ORGANIZACIÓN DE EVENTOS

Informe final de evaluación del seguimiento de la implantación de títulos oficiales GRADO EN PROTOCOLO Y ORGANIZACIÓN DE EVENTOS Informe final de evaluación del seguimiento de la implantación de títulos oficiales 2013 GRADO EN PROTOCOLO Y ORGANIZACIÓN DE EVENTOS Facultad de Ciencias de la Comunicación UCJC INFORMACIÓN PUBLICA Valoración

Más detalles

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES Tema: Cartas de Servicios Primera versión: 2008 Datos de contacto: Evaluación y Calidad. Gobierno de Navarra. evaluacionycalidad@navarra.es

Más detalles

Inicio. Nivel 5. El Marco de la Buena Enseñanza. Definiciones preliminares. Dominios del Marco de la Buena Enseñanza

Inicio. Nivel 5. El Marco de la Buena Enseñanza. Definiciones preliminares. Dominios del Marco de la Buena Enseñanza Inicio. Nivel 5. El Marco de la Buena Enseñanza. Definiciones preliminares. Dominios del Marco de la Buena Enseñanza Dominio A: Preparación de la enseñanza. Los criterios de este dominio se refieren, tanto

Más detalles

Estas visiones de la información, denominadas vistas, se pueden identificar de varias formas.

Estas visiones de la información, denominadas vistas, se pueden identificar de varias formas. El primer paso en el diseño de una base de datos es la producción del esquema conceptual. Normalmente, se construyen varios esquemas conceptuales, cada uno para representar las distintas visiones que los

Más detalles

CREACIÓN DE UN DEPARTAMENTO DE RELACIONES PÚBLICAS PARA LOS ALMACENES EL CHOCHO Y EL CAMPEÓN

CREACIÓN DE UN DEPARTAMENTO DE RELACIONES PÚBLICAS PARA LOS ALMACENES EL CHOCHO Y EL CAMPEÓN PROPUESTA: CREACIÓN DE UN DEPARTAMENTO DE RELACIONES PÚBLICAS PARA LOS ALMACENES EL CHOCHO Y EL CAMPEÓN Cómo sabemos cada día las empresas se enfrentan a un mundo globalizado, con retos empresariales,

Más detalles

Educación y capacitación virtual, algo más que una moda

Educación y capacitación virtual, algo más que una moda Éxito Empresarial Publicación No.12 marzo 2004 Educación y capacitación virtual, algo más que una moda I Introducción Últimamente se ha escuchado la posibilidad de realizar nuestra educación formal y capacitación

Más detalles

INTERNET Y WEB (4º ESO)

INTERNET Y WEB (4º ESO) INTERNET Y WEB (4º ESO) 1. CLASIFICACIÓN DE LAS REDES Internet se define comúnmente como la Red de redes, o la Red global. En cualquier caso, puede considerarse como la unión de entidades más pequeñas

Más detalles

Introducción. Definición de los presupuestos

Introducción. Definición de los presupuestos P o r q u é e l p r e s u p u e s t o d e b e s e r e l c a m i n o a s e g u i r p a r a g a r a n t i z a r e l é x i t o d e s u e m p r e s a? Luis Muñiz Economista Introducción El aumento de la incertidumbre

Más detalles

Sistema informatizado de Trazabilidad alimentaria

Sistema informatizado de Trazabilidad alimentaria Universdad de Oviedo Trazabilidad Alimentaria Según el reglamento europeo, todas las empresas del sector alimentario han de tener un control de la trazabilidad alimentaria. La forma más eficiente, segura,

Más detalles

El Outsourcing como Opción Estratégica

El Outsourcing como Opción Estratégica El Outsourcing como Opción Estratégica Improven Consultores Colón 18, 2ºF 46004 Valencia Tel: 96 352 18 22 Fax: 96 352 20 79 www.improven-consultores.com info@improven-consultores.com El outsourcing como

Más detalles

REGLAMENTACIÓN DEL TRABAJO DE GRADO Aprobado con carácter transitorio por el Consejo de Facultad. Acta 155 dic. 4 de 1995.

REGLAMENTACIÓN DEL TRABAJO DE GRADO Aprobado con carácter transitorio por el Consejo de Facultad. Acta 155 dic. 4 de 1995. UNIVERSIDAD DE ANTIOQUIA FACULTAD DE CIENCIAS SOCIALES Y HUMANAS DEPARTAMENTO DE SOCIOLOGÍA REGLAMENTACIÓN DEL TRABAJO DE GRADO Aprobado con carácter transitorio por el Consejo de Facultad. Acta 155 dic.

Más detalles