Diseño y evaluación de un clúster HPC: Hardware

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Diseño y evaluación de un clúster HPC: Hardware"

Transcripción

1 Diseño y evaluación de un clúster HPC: Hardware Autor: David Trilla Rodríguez Grado en Ingeniería Informática Especialidad en Ingeniería de Computadores 26 de Junio de 2014 Director: Josep Llosa Espuny, Arquitectura de computadores Facultad de Informática de Barcelona Universidad Politécnica de Cataluña (UPC) - BarcelonaTech

2 Resumen La sección de hardware de este proyecto da a conocer un análisis de los dispositivos físicos más usados en el mundo de la supercomputación. Detalla los componentes necesarios y el hardware requerido para poder construir un computador de tipo clúster y evalúa los posibles rendimientos obtenidos. Incluye también la especificación del hardware usado finalmente para la construcción de un clúster, así como su configuración y puesta a punto para las secciones de software de sistema y aplicaciones. Finalmente se evalúa la plataforma construida desde el punto de vista hardware y se contrasta su eficacia con la teoría usada para diseñar el clúster inicial. Los objetivos del trabajo se sitúan en la construcción y montaje de un clúster de placas Arndale Octa con chips de Samsung Exynos 5420, y en el aprendizaje en la materia de hardware de computación de alto rendimiento. Resum La secció de hardware d aquest projecte dona a coneixer un anàlisi dels dispositius físics més usats en el món de la supercomputació. Detalla els components necessaris i el hardware requerit per poder construir un computador de tipus clúster i evalúa els possibles rendiments obtinguts. Inclòu també l especificació del hardware usat finalment per a la construcció d un clúster, així com la seva configuració i posada a punt per a les seccions de software de sistema i aplicacions. Finalment s evalúa la plataforma construida des del punt de vista hardware i es contrasta la seva eficàcia amb la teoria usada per dissenyar el clúster inicial. Els objectius del treball es situen en la construcció i montatge d un clúster de plaques Arndale Octa amb chips Samsung Exynos 5420, i en l aprenentatge en la matèria de hardware de computació d alt rendiment. 1

3 Abstract The hardware section of this project shows an analysis of the most used physical devices in the supercomputing world. The project specifies the parts and hardware needed to build a type cluster computer, and evaluates the possible performance measures to be obtained. It also includes the specification of the hardware used in last instance to build a cluster, its configuration and set up for the other sections of this project, system software and applications. Finally, the project evaluates the built platform from the hardware point of view, and compare its efficiency against the initial hypothetical cluster disgned. The goals of the project is to build and construct a cluster of Arndale Octa boards with Samsung Exynos 5420 chips, and learn about the hardware issue in high performance computing. 2

4 Índice general Resumen 2 Prefacio Introducción Orígenes Problemática Student Cluster Challenge Objetivos Objetivos Generales Objetivos individuales Gestión del Proyecto Planificación Estudio Teórico Aplicación Práctica Estimación temporal Listado de Tareas Diagrama de Gantt Recursos Presupuesto Recursos humanos Hardware Software Gastos generales Presupuesto total Estado del Arte Metodología y Top Arquitectura Clúster MPP Red de Interconexión InfiniBand Ethernet Otras tecnologías Unidad Central de Procesamiento Intel Xeon IBM Power BQC

5 AMD Opteron Aceleradores Coprocesador Intel Xeon Phi Nvidia Tesla Almacenamiento Hard Disk Drive Solid-state Drive Estado del arte en el SCC Diseño de un Clúster Teórico Restricciones Parámetros de decisión CPU GPU Red de Interconexión Configuración y número de nodos Colocación Sumario Métricas Teóricas Hardware del Clúster Arndale Octa SoC Samsung Exynos Interfaz de Red: 100Mbps Ethernet Almacenamiento: Tarjeta microsd + emmc Red de Interconexión: 100Mb Ethernet Almacenamiento: NFS Limitaciones del hardware OpenCL OpenGL Compute Shaders big.little Interfaz Ethernet Escalar la frecuencia de la CPU Sumario del Hardware Clúster de Arndale Octa Diseño y Configuración del Clúster ARM Emplazamiento del hardware Diseño de la red de interconexión Configuración del hardware Arranque: Configuración de U-boot Gestión del hardware Configuración de la Red DHCP Disco en NFS

6 7. Evaluación del Clúster Metodología Configuración de Yokogawa Tests de estrés Rendimiento pico esperado Rendimiento obtenido Mediciones de Consumo Comparación con el clúster teórico Conclusiones Propias Que le hace falta al hardware para ganar Propuestas de continuidad Conclusiones Conclusiones de equipo Conclusiones de cara a la competición Trabajo futuro Agradecimientos 77 5

7 Índice de figuras 2.1. Listado de Tareas Diagrama de Gantt Estado del Laboratorio C6-103 al llegar Tabla con la configuración hardware de los clústers del Student Cluster Challenge (SCC) edición de Equipo de Costa Rica durante la competición del año Tabla comparativa de procesadores Intel: Generación E vs E5-4600[20] Esquema de la placa base[24] Esquema de la arquitectura de la placa Arndale Octa Pipeline del Cortex-A Esquema de la arquitectura de la Mali-T628 MP Esquema de la arquitectura de los shaders de la Mali Vista del clúster (cerveza para comparar la escala) Vista del clúster (cerveza para comparar la escala) Vista cercana del clúster Vista del switch de interconexión Vista general del clúster Distribución del hardware en el laboratorio Configuración de la red del clúster del laboratorio Configuración para arranque desde la emmc integrada (por defecto) Configuración para arranque desde la tarjeta SD Vista de la interfaz RS Vista del Yokogawa tomando medidas del consumo del switch Esquema de la conexión del Yokogawa a las tomas de corriente del clúster Gráfico rendimiento de 1 nodo Gráfico rendimiento del clúster Distribución del consumo total estimado Gráfico consumo en 1 nodo

8 Índice de cuadros 2.1. Distribución de horas de trabajo según rol Costes asociados a recursos humanos Costes derivados de la compra de Hardware Desglose de los gastos generales Resumen presupuesto total Ancho de banda total de Infiniband en Gbps Ancho de banda efectivo de Infiniband en Gbps Sumario del hardware del clúster teórico Asignación de direcciones para los nodos Mediciones de rendimiento con DGEMM Mediciones de rendimiento con DGEMM Mediciones de Ancho de Banda con VECOP Consumo medio de los componentes hardware Mediciones de consumo con DGEMM

9 Glosario Arquitectura x86 Conjunto de instrucciones utilizadas en la microarquitectura de un procesador. Creada por la compañía Intel, y de las más extendidas actualmente. 31 Floating Point Operations Per Second Las siglas de FLOPS se usan para medir y comparar el rendimiento de los computadores, y se corresponden a la cantidad de operaciones con decimales que es capaz de hacer una máquina cada segundo. 31, 37 High Performance Linpack Versión para HPC del benchmark de Linpack. 14, 25, 35, 36, 67, 69, 75 Simple Instruction Multiple Data Técnica empleada para conseguir paralelismo a nivel de datos. Un conjunto de instrucciones que son capaces de ejecutar la misma operación en datos distintos. 31, 32, 38, 46 Symmetric Multiprocessing Tipo de arquitectura que implica disponer de dos o más procesadores idénticos conectados a una memoria principal compartida única y controlados por un mismo sistema operativo. 27 System on a Chip Técnica que implica construir circuitos que integren todos los componentes necesarios de un computador en un único chip , 51, 66, 73 8

10 Siglas API Aplication Programming Interface. 50 BSC Barcelona Supercomputing Center. 21, 45 cm centímetros. 26 CPD Centro de Procesamiento de Datos. 33 CPU Central Processing Unit. 26, 27, 30, 31, 35, 41, 43, 46, 50, 51, 56, 66 DAC Departament d Arquitectura de Computadors. 56, 60, 61 DAS Direct Attached Storage. 27 DDR Double Data Rate. 28, 29 DHCP Dynamic Host Configuration Protocol. 55, 56, DNS Domain Name Service. 61 ECC Error Correcting Code. 32 EDR Enhanced Data Rate. 28, 29 emmc Embedded Multi-Media Card. 51 FDR Fourteen Data Rate. 28, 29, 34, 40, 41, 43 GB Gigabyte. 31, 32, 34, 35, 41, 45, 46, 49, 51, 56, 73 GB/s Gigabyte por segundo. 31 Gbps GigaBit Por Segundo. 28, 29, 40, 51, 56, 68, 69, 73 GFLOPS Gigaflops. 38, 48, 66 68, 71, 72 GFLOPS/e Gigaflops por euro. 32 GFLOPS/W Gigaflops por vatio. 32, 38, 40, 71 GHz Gigahercios. 31, 46, 51, 66 GPGPU General-Porpouse Computing on Graphics Processing Unit. 31, 32 GPU Graphics Processing Unit. 31, 32, 42, 43, 46, 50, 51, 56, 66 9

11 HCA Host Channel Adapter. 29 HDD Hard Disk Drive. 33, 36 HDMI High-Definition Multimedia Interface. 45 HPC High Performance Computing. 12, 14 17, 21, 27, 28, 30 33, 40, 46, 49, 51, 66, 69, 71, 74, 75 HPCC High-Performance Computing Cluster. 66 ISC International Supercomputing Conference , 25 KB Kilobyte. 29 MAC Media Access Control. 55, 56, Mbps Mega Bits Por Segundo. 45, 49, 51, 56, 69, 73 MHz Megahercios. 46, 48, 51, 56, 68, 73, 74 MPP Massive Parallel Processessor. 25, 27, 30, 38 NAS Network Attached Storage. 27, 49 NFS Network File System. 37, 49, 56, 58, 62, 63, 75 ns Nanosegundos. 29 OSI Open System Interconnection. 29, 40 PFLOPS Petaflops. 30 PVP Precio de Venta al Público. 32 QDR Quad Data Rate. 28, 29 QSFP Quad Small Form-factor Pluggable. 40 RAID Redundant Array of Independent Disks. 36 RPM Revoluciones Por Minuto. 33 SAN Storage Area Network. 27 SCC Student Cluster Challenge. 6, 12 15, 17, 25, 34, 35, 37, 38, 40, 43, SD Secure Digital. 49, 51, 58, 75 SDR Single Data Rate. 28, 29 SSD Solid-State Drive. 33, 36, 41 TB TeraByte

12 TCA Target Channel Adapter. 29 TFLOPS Teraflops. 31, 32, 36, 40, 43, 71, 75 UPC Universitat Politécnica de Catalunya. 55 USB Universal Serial Bus. 45, 49, 51, 64 W Vatios. 13, 14, 32, 37, 38, 40, 42 44,

13 Prefacio Este trabajo forma parte de un proyecto colaborativo de investigación entre estudiantes que se ubica en el área de la informática conocida como High Performance Computing (HPC). Comparte título y se complementa con el trabajo de tres compañeros de proyecto: David Trilla en el ámbito del hardware, Cristóbal Ortega en el de software de sistema y Constantino Gómez por el apartado de aplicaciones. Por tanto, los siguientes capítulos son compartidos a nivel de proyecto: este prefacio, introducción, planificación y presupuestos, sostenibilidad y por último conclusiones de equipo. Estos capítulos son compartidos porque aportan información esencial común a todo el proyecto, así como una descripción del trabajo conjunto que ha realizado el equipo. Hoy en día el HPC es una de las herramientas principales para el desarrollo de la ciencia. Por norma general las aplicaciones HPC comparten una característica común, se pueden desmenuzar en subtareas para poder así ejecutarse de manera paralela en gran cantidad de procesadores. El principal exponente de este tipo de investigación son los supercomputadores, máquinas con capacidades de cómputo muy por encima de la mayoría de ordenadores, y que son imprescindibles para casi cualquier campo científico e investigación. El HPC se encarga de que estas máquinas sigan evolucionando para permitir que la ciencia siga avanzando a pasos cada vez mayores. Una de las conferencias más importantes en materia HPC es la International Supercomputing Conference (ISC). Los asistentes, mayoritariamente profesionales del sector, participan en charlas técnicas, conferencias y talleres entre otros. Para este trabajo, no es el evento principal el que resulta de interés, sino la competición HPC: SCC. En esta competición, que participan universidades de todo el mundo, equipos de estudiantes compiten por conseguir los mejores resultados de rendimiento. La creación del grupo responde a dos necesidades: la de dar cabida a los tres aspectos técnicos más importantes de la tecnología HPC en un proyecto común, y segundo, la de formar un equipo y las opciones que se tendrían para ganar una competición como la Student Cluster. 12

14 Capítulo 1 Introducción 1.1. Orígenes A principios de septiembre de 2013, Álex Ramírez reúne a 7 estudiantes de la especialidad de ingeniería de computadores, entre ellos los 3 integrantes del grupo, y nos propone formar un equipo con intención de participar en la ISC 14 que se celebra en Liepzig del 21 al 25 de Junio en 2014 A lo largo de septiembre y octubre se estudian los requerimientos de la competición y elaboramos el documento de inscripción con información de los participantes y un primer planteamiento del clúster. A principios de diciembre la organización nos comunica que no hemos sido admitidos en la competición sin aportar mayor explicación. En enero de 2014 acordamos seguir con el proyecto a modo de TFG pese a no estar admitido. El grupo se reduce a 3 personas: Constan Gómez, David Trilla y Cristobal Ortega Problemática Por un lado la problemática que se plantea es la siguiente: en caso de querer competir en el futuro en una competición como el SCC, qué competencias de equipo y conocimientos técnicos deberíamos desarrollar. Por otro lado, nos encontramos otro problema, más general y de más alcance, como es el consumo de los supercomputadores hoy en día. Actualmente, el mantenimiento de los centros de computación tiene un coste muy elevado. Gran parte del coste se debe al consumo eléctrico de sus equipos y la refrigeración necesaria para mantenerlos funcionando. Este problema es atacado de forma indirecta en el SCC por la limitación de consumo a Vatios (W), y en el clúster que construiremos con hardware de bajo consumo. Para ayudarnos a definir los objetivos del trabajo, veamos primero en detalle en que consiste la competición. 13

15 CAPÍTULO 1. INTRODUCCIÓN 1.3. Student Cluster Challenge El SCC es una competición que se celebra en el ámbito del ISC, el escaparate sobre HPC en Europa. El evento ISC 14 tiene lugar entre los días 21 y 25 de Junio en Liepzig, Alemania. Esta competición será nuestro marco de referencia, dirigiendo nuestro proyecto como si fuéramos a participar en ella, usando sus directrices y parámetros. El evento consiste en reunir a varios equipos, de hasta 6 estudiantes sin graduar, que junto con un pequeño sistema para supercomputación y a lo largo de 4 días, compitan entre ellos en diferentes categorías para determinar el sistema ganador, mediante el montaje y la optimización de los parámetros de las aplicaciones. Existen 3 categorías a las cuales se opta a premio, la de mejor resultado con High Performance Linpack, que es la versión para HPC del software de benchmarking LIN- PACK, la de votación a favorito, y la categoría general donde cuenta la puntuación total de todos los benchmarks. La característica de la competición de premiar al eficiencia da lugar a la principal restricción que se impone en la competición, que limita el presupuesto para el consumo. Esto limita el consumo de cualquier clúster en competición, incluyendo sus elementos para interconexión, a un total de 3.000W. [1] Debido a todas las anteriores normas, nuestra intención es diseñar dos clústeres pensados para presentar al concurso. Un clúster teórico, que cumpla los requisitos anteriores, y que nos permitirá liberarnos de la necesidad de depender del coste de su creación, y posteriormente, con el hardware disponible, crear un clúster que pueda ejecutar eficientemente los benchmarks del concurso, con especial atención en el High Performance Linpack, y que también cumpla la restricción de consumo Objetivos A continuación se desglosan los objetivos generales del proyecto y los objetivos individuales de cada uno de los tres trabajos Objetivos Generales Basándonos en los requerimientos vistos en la sección anterior se establecen los siguientes objetivos generales y su justificación. Hemos dividido el proyecto en dos fases. Objetivos de la primera fase Estudio del estado del arte HPC Diseñar y montar un clúster con un consumo inferior a los 3kW. Para poder diseñar adecuadamente un clúster necesitamos realizar previamente un estudio del estado del arte. De esta manera podremos extraer cuales son los elementos indispensables para su montaje, y además, adquirir otros conocimientos relacionados 14

16 CAPÍTULO 1. INTRODUCCIÓN que nos ayudarán durante todo el desarrollo del proyecto. El segundo objetivo se aborda de dos maneras diferentes. Por un lado se realiza el diseño teórico de un clúster con procesadores y aceleradores convencionales. Por otro, el diseño y montaje de un prototipo de clúster con procesadores móviles de bajo consumo. Dada la necesidad de asistir con un clúster propio a la competición, es necesario trabajar de primera mano con el hardware y el software de sistema para ser más competitivos. Objetivos de la segunda fase Evaluación del clúster basado en procesadores de bajo consumo. En este momento, mediante benchmarks y aplicaciones, realizaremos las pruebas empíricas que demostrarán que nuestra solución al problema está a la altura de la competición. En caso de que no estarlo, se buscará poder señalar de manera precisa la causa de las deficiencias de rendimiento (cuellos de botella) ya sean de diseño, de configuración o de uso incorrecto de las herramientas de evaluación. Dado que ningún integrante del grupo ha participado en algún proyecto similar anteriormente, el proceso de evaluación servirá también para el desarrollo de las habilidades de equipo necesarias en la competición, ya que, gran parte de las técnicas y los test aplicados con el fin de optimizar la máquina y las aplicaciones de este trabajo son extrapolables a otras configuraciones de hardware y otros programas Objetivos individuales Objetivos de la sección de hardware Fase 1 Investigación sobre el estado del arte del hardware en el mundo de HPC, cuáles son las tecnologías más usadas y los componentes necesarios para construir un clúster. Crear un clúster para HPC de manera conceptual para poder competir en el SCC, sin limitación económica. Evaluar la tecnología usada en el SCC y las capacidades del clúster teórico diseñado. Fase 2 Analizar el hardware a nuestro alcance, disponible para construir un clúster para HPC. Montar y configurar el hardware para tener una plataforma funcional con múltiples nodos sobre la que poder ejecutar software 15

17 CAPÍTULO 1. INTRODUCCIÓN Evaluar el rendimiento del hardware, las diferencias entre los resultados esperados y los reales, y comparar con el clúster conceptual de la primera fase y otros sistemas con tecnologías distintas. Objetivos de la sección de software de sistema Fase 1 Investigar que software de sistema es necesario habitualmente para correr aplicaciones del tipo HPC. Estudiar el estado actual en los sistemas de supercomputación para saber que stack de software usan. Seleccionar el software de sistema que necesitemos y elegir el que mejor se nos adapte a nosotros, ya sea por compatibilidad con el hardware o aplicaciones a correr, por documentación existente o requisitos diversos. Fase 2 Basado en la fase 1, instalar y configurar todo el stack de software para crear un clúster totalmente funcional. Es posible que haya que seleccionar otro tipo de software por la plataforma usada. Experimentar con distintas versiones de paso de mensajes MPI para saber realmente cuál se adapta a nuestro sistema Objetivos de la sección de aplicaciones Fase 1 Investigar las aplicaciones en el estado del arte actual y analizar las más relevantes para nuestro proyecto. Averiguar que opciones existen de cara a optimizar las aplicaciones que se ejecutarán en el clúster. Fase 2 Evaluar el rendimiento de las aplicaciones descritas a nivel de nodo y a nivel de clúster. 16

18 Capítulo 2 Gestión del Proyecto 2.1. Planificación Estudio Teórico La primera fase, es de investigación activa, sobre HPC y el SCC, e información sobre todo lo necesario para la instalación y preparación de un clúster. Esto incluye hardware, software de sistema y aplicaciones. Esta parte del proyecto recabará la información necesaria para elaborar un clúster teórico con el que ir a competir en el SCC. No se esperan grandes contratiempos durante esta fase. Los problemas que puedan surgir serán derivados de la poca información disponible sobre algunos componentes del clúster Aplicación Práctica La segunda fase, basada en la experimentación, es en la cual usamos la información recogida en la fase anterior para crear un clúster totalmente funcional. En esta fase es donde es más probable que surjan dificultades técnicas, ya que al ser un mundo casi nuevo, como por ejemplo, que la información recogida en la fase anterior no se ajuste a nuestra arquitectura o software escogido. Los posibles retrasos de ponernos a montar el clúster, instalación de software y benchmarks deberemos tenerlos en cuenta y aplazar el resto de tareas que tengamos, como es la optimización de software y aplicaciones, esto implica que obtendremos peores rendimientos de los que realmente podríamos conseguir. Ya que para poder obtener las métricas de rendimiento necesitamos un clúster funcionando. Y aunque no sea un clúster optimizado todo lo posible, el objetivo de tener un clúster de HPC estará conseguido. Los posibles retrasos que aparezcan en esta sección puede aparecer de errores e incompatibilidades en la fase de instalación del clúster, el tiempo adicional será recortado de las tareas más opcionales dispuestas al final del proyecto, correspondientes a la parte de optimización, lo que implicará que obtendremos peores rendimientos de los que realmente podemos conseguir, ya que la instalación y puesta en marcha del clúster es esencial, sin embargo el proyecto estará finalizado ya que tendremos un clúster totalmente funcional. 17

19 CAPÍTULO 2. GESTIÓN DEL PROYECTO 2.2. Estimación temporal La temporización en este proyecto toma especial importancia por dos motivos: hay un gran volumen de tareas a realizar que requieren un esfuerzo conjunto y la alta incertidumbre que albergan algunas de ellas. Debido a las fuertes dependencias entre tareas es imprescindible tener en mente las fechas comprometidas para garantizar que todo el grupo cumple con sus objetivos. Desde el principio se acuerdan unas horas fijas de dedicación semanal en grupo. Por un lado, nos ayudará a empezar con buen ritmo con la parte teórica y a funcionar como un equipo, y por otro, tener margen de reacción de cara al final del proyecto donde se prevén más problemas. Tarea Estudio previo Montaje y configuración Benchmarking Análisis de resultados Dedicación por persona 125h 155h 35h 60h Cuadro 2.1: Distribución de horas de trabajo según rol. 18

20 CAPÍTULO 2. GESTIÓN DEL PROYECTO Listado de Tareas Figura 2.1: Listado de Tareas 19

21 Diagrama de Gantt Figura 2.2: Diagrama de Gantt 20

22 CAPÍTULO 2. GESTIÓN DEL PROYECTO Recursos Los recursos que tendremos para este proyecto serán principalmente humanos, tendrán un papel importante para el estudio teórico, el montaje y configuración del clúster. Para la parte de estudio, nos apoyaremos en publicaciones científicas, revistas y papers, además de sitios online especializados de este tipo de hardware y software. También se hará uso de libros que puedan tratar los temas de HPC o clústeres, pese a que estos se prevén en menor medida. Para la parte práctica del montaje del clúster dispondremos principalmente del hardware que nos ofrezca el departamento de computadores y el sitio en el que nos permita colocarlo. Para realizar las medidas de consumo energético se ha dispuesto de un medidor de potencia Yokogawa cedido por el Barcelona Supercomputing Center (BSC). Finalmente, otros recursos utilizados son los ordenadores personales para la redacción de la memoria y conectar en remoto al hardware de desarrollo Presupuesto El proyecto se basa en montar un clúster y configurarlo de manera correcta para poder ejecutar aplicaciones HPC en él. En este documento se hace una estimación del precio de los recursos que se usarán a lo largo del trabajo. Las amortizaciones se calcularán respecto a 6 meses. 21

23 CAPÍTULO 2. GESTIÓN DEL PROYECTO Recursos humanos Se necesitan técnicos que se encarguen de diseñar, instalar y configurar dicho clúster. Siendo 3 personas en este proyecto, repartiremos las mismas horas para todos. Dentro de cada bloque de horas, cada uno se centrará en una de las divisiones lógicas que hemos establecido: hardware, software de sistema y aplicaciones. Para las decisiones de elección de componentes se han considerado horas de Director de proyecto. Para el montaje e instalación del clúster se necesitarán competencias de Administrador de Sistema. Para realizar los benchmarks adecuados e interpretar resultados se han considerado horas de Analista. Los datos que utilizamos están basados en portales online de ofertas laborales. Rol Horas estimadas Precio por hora Total por persona Total grupo Director de proyecto 125h 50e/h 6.250e e Administrador de sistema 155h 26e/h 4.030e e Analista 95h 30e/h 2.850e 8.550e Total 375h e Cuadro 2.2: Costes asociados a recursos humanos Hardware Para la segunda parte del proyecto será esencial el hardware que adquiramos para poder trabajar con él. Datos obtenidos de tiendas online. Producto Precio unitario Unidades Vida útil Amortización total Arndale Octa(Exynos 5420) 150e 6 5 años 90e Fuentes de alimentacion 5e 6 5 años 3e Tarjetas SD 7,5e 12 5 años 9e Power meter Yokogawa 1.830e 1 15 años 61e Switch Netgear 100-Mbit 89e 1 10 años 4,45e 1TB Hard Drive Storage 70e 1 7 años 5e 125M cat 5E FTP 68e 1 20 años 1,7e Total 174,15e Cuadro 2.3: Costes derivados de la compra de Hardware. 22

24 CAPI TULO 2. GESTIO N DEL PROYECTO Tanto las placas Arndale Octa como las fuentes de alimentacio n y el medidor de potencia Yokogawa han sido cedidos por el BSC. El resto del material ha sido cedido por el departamento de Arquitectura de Computadores. Al final de la realizacio n del proyecto se espera deshacer el montaje y retornar ı ntegro todo el material para su posterior reutilizacio n en otras actividades de investigacio n o proyectos Software El software requerido para la instalacio n, benchmarking y ana lisis de la ma quina es de acceso gratuito. Gran parte de de los programas tienen licencias de Software Libre, y las que no, disponen de versiones gratuitas con propo sito no comercial. Necesitaremos distinto software de sistema para gestionar la ma quina como aplicaciones para medir su rendimiento Gastos generales Necesitaremos un sitio donde instalar el clu ster fı sicamente, para ello necesitaremos un sitio con espacio y una instalacio n ele ctrica adecuada adema s de Internet para tener acceso a los sistemas desde fuera. El laboratorio C6-103 cedido tambie n por el departamento de AC cuenta con todo lo necesario para la realizacio n del proyecto. Se ha hecho una estimacio n del coste que supondrı a disponer de un espacio similar. Figura 2.3: Estado del Laboratorio C6-103 al llegar. 23

25 CAPÍTULO 2. GESTIÓN DEL PROYECTO Concepto Coste hora Coste total Espacio físico 0,368e 1.590e Electricidad 0,083e 358e Internet 0,07e 300e Total 2.248e Cuadro 2.4: Desglose de los gastos generales Presupuesto total Concepto Coste estimado + Impuestos Recursos humanos e ,9e(31 % S.S.) Hardware 174,15e 210,7e(21 % IVA) Software 625e 300e(21 % IVA) Gastos generales 2.248e 2.720,08e(21 % IVA) Total ,15e ,68e Cuadro 2.5: Resumen presupuesto total. 24

26 Capítulo 3 Estado del Arte 3.1. Metodología y Top 500 Para realizar el análisis sobre el estado del arte en la supercomputación actual se ara un estudio sobre los sistemas más representativos en la lista del Top 500 de Noviembre de Las secciones se dividirán para representar los distintos componentes necesarios para construir un supercomputador. El Top 500 es un proyecto para clasificar los 500 supercomputadores más potentes del mundo. El proyecto se inicio en el año 1993, y dos meses al año, en Noviembre y Junio, publica listas actualizadas. El sistema de clasificación se basa en la puntuación que sacan las máquinas que se presentan en el benchmark de High Performance Linpack.[2] [3] El estado del arte, no se centrará tanto en la representación de rendimiento que ofrece cada sistema diferente, si no en su representatividad frente al total de máquinas. El impacto que tenga cada sistema sobre el rendimiento se analizará posteriormente cuando se deba decidir el hardware que integrará el clúster teórico candidato al SCC. Respecto al estado del arte de la competición, se basará en su edición europea, la que forma parte del ISC Arquitectura A lo largo de la historia del Top 500, ha habido una gran diversidad de arquitecturas, en cuanto al montaje del supercomputador se refiere. Actualmente solo compiten 2 filosofías distintas de supercomputador referente a la arquitectura, la de tipo clúster y la de tipo Massive Parallel Processessor (MPP). La representatividad de los supercomputadores de tipo clúster indica que un 84,6 % de los sistemas del Top 500, son de este tipo, mientras que el 15,4 % restante, son de tipo MPP. A pesar de que el proyecto esta directamente enfocado a un tipo de arquitectura, es necesario explicar las dos tendencias que dominan el Top 500 actualmente. 25

27 CAPÍTULO 3. ESTADO DEL ARTE Clúster La arquitectura de tipo clúster comprende a dos o más ordenadores interconnectados entre ellos para trabajar comportándose como uno solo. La característica principal de este tipo de máquinas, es que cada uno de estos ordenadores, no deja de ser una máquina indepentiende, que puede trabajar por sí sola, y ejecutar programas completamente distintos a todas las demás. Una característica importante de los clústers, es que, pueden ser máquinas heterogéneas, es decir, sus nodos de cálculo no necesariamente tiene que ser idénticos, si no que se puede construir supercomputadores con nodos variables en cuanto al hardware. Las máquinas clúster se componen principalmente de las siguientes partes[4]: Nodo de cálculo: Cada una de las máquinas ïndependientes de las que se compone el clúster. Soportes para Procesadores(sockets): Cada nodo de cálculo se puede componer de una o más Central Processing Unit (CPU), dando lugar a nodos multi-núcleo que a su vez pueden contener procesadores, también multinúcleo. Memoria: Dividida en distintos canales, se usará para almacenar y ejecutar los programas. Aceleradores: Componentes opcionales para ayudar en la computación. Interfaces de Red: Soportes para permitir la conexión entre nodos. Almacenamiento: Los nodos pueden tener almacenamiento local y usarlo para distintos propósitos, como por ejemplo, guardar datos temporalmente. Colocación: Los supercomputadores de tipo clúster, acostumbran a usar medidas estandarizadas para poner sus nodos en armarios. Las principales configuraciones que usan son: Bastidores: Si los nodos van en bastidores, que son marcos de metal donde se fijan los componentes hardware, se usan armarios llamados racks, para su colocación. La medida estándar usada en este caso, es la U, equivalente a 44,45 centímetros (cm) (1,75 ) de altura. Habitualmente los racks tienen una altura de 42 U. La medida del bastidor puede variar, 1 U, 2 U, 1,5 U,... dependiendo del hardware que deba soportar. Hojas(Blades):Otra opción para la colocación, es tener nodos de tamaño inferior, e insertarlos en vertical. En éste caso se insertan por hojas (blades) y estas hojas van en los llamados bladecenter, que agrupan los nodos. La altura habitual de un bladecenter, es de 7 U. Interconexión: Éste es el elemento necesario para poder coordinar y comunicar todos los nodos entre si. Construye una red entre ellos y permite que un supercomputador ejecute un mismo programa entre todos sus nodos y sea fácilmente escalable y ampliable. Almacenamiento: El clúster necesita opciones de almacenamiento para poder guardar el software de sistema, y los programas que vayan a ejecutarse, las principales configuraciones son: 26

28 CAPÍTULO 3. ESTADO DEL ARTE MPP Direct Attached Storage (DAS): Este tipo de configuración de almacenamiento es la más básica, y consiste simplemente en anexar un dispositivo de almacenamiento directamente al nodo, sin una red de por medio. Network Attached Storage (NAS): Para esta configuración, existe un disco en una red, que es tratado como un servidor de ficheros, y el sistema operativo lo identifica como tal. Es decir el almacenamiento viaja a través de protocolos como TCP/IP en la capa de aplicación. Storage Area Network (SAN): A diferencia del anterior, los discos en SAN, son discos en red tratados como dispositivos de bloques, de manera que el sistema operativo lo identifica como si de un disco conectado directamente se tratara y por lo tanto es el propio sistema de ficheros el que envía directamente los mensajes al servidor de almacenamiento. Las arquitecturas de tipo MPP son una vuelta de tuerca a lossymmetric Multiprocessing. Es una arquitectura de multi-procesador que consiste en tener cada CPU con su propia memoria, copia del sistema operativo y aplicaciones, normalmente interconectados con una red específica propia del fabricante o usando una forma de interconexión más compleja, como por ejemplo torus de varias dimensiones. Un ejemplo de supercomputadores tipo MPP, son los BluGene/Q de IBM, o los ordenadores Cray. Su diferencia básica respecto a los computadores de tipo clúster reside en el concepto de ver a cada nodo de un clúster como una máquina muy independiente, mientras que los nodos de los MPP son prácticamente CPU. Mientras que el clúster son muchas máquinas actuando como una, el MPP es una única máquina con una gran cantidad de procesadores, esto se hace extensible en cuanto a sus modelos de memoria o de interconexión Red de Interconexión Las redes de interconexión son elementos esenciales en los supercomputadores. Permiten la comunicación entre los nodos y procesadores de un supercomputador, para coordinar sus aplicaciones. Las redes de interconexión han ido ganando importancia con la transformación hacia supercomputadores de tipología clúster, pues permiten un modelo mucho más escalable y genérico cuando se tiene que programar. En la lista de los supercomputadores más potentes, la interconexión de sus procesadores es uno de los elementos con mayor diversidad. Dado que con la construcción de un computador de estas características no siempre se recurre a una tecnología genérica, si no que, muchas veces se diseña una red de interconexión a medida para cada máquina. Sin embargo si que existen grandes familias de interconexión que dibujan un mapa de tendencia. Los tipos de interconexión más extendidos en el mundo de HPC son InfiniBand y Ethernet, que abarcan casi la totalidad de los 500 sistemas de la lista del top500 con un 83,8 % de los sistemas. Aproximadamente un 10 % incorporan interconexión personalizada y el resto son otro tipo de redes como,redes propietarias o Myrinet entre otras.[3] 27

29 CAPÍTULO 3. ESTADO DEL ARTE InfiniBand InfiniBand representa el 41,4 % de las redes de interconexión del Top 500. La tecnología es actualmente regulada por la Infiniband Trade Association, un consorcio de empresas que juntaron dos tecnologías que se estaban desarrollando por separado, para crear InfiniBand. InfiniBand es una tecnología de interconexión conmutada serie, de alta velocidad pensada en su aplicación en HPC. La tecnología permite conexiones punto a punto bidireccionales serie, y dispone de 3 diferentes niveles de rendimiento, dependiendo de la anchura de los canales de datos (1X, 2X, 12X). Cada uno de estos canales ofrece un pico de 2,5 GigaBit Por Segundo (Gbps). Por ejemplo, el nivel 1X, ofrece un canal de 2,5 Gbps en cada dirección, el nivel 4X, ofrece 4 canales por cada dirección y el nivel 12X, ofrece hasta 12 canales por cada dirección, lo que otorga solo con estos niveles, una velocidad pico de hasta 30 Gbps en cada dirección. Esta velocidad de transmisión se corresponden a bits brutos, debido a la codificación usada por InfiniBand, cada mensaje se empaqueta con bits para corrección de errores que no son información útil. La relación de codificación más usada es la que obtiene 8 bits de información por cada diez bits enviados. Esto sitúa la velocidades pico de Infiniband para información real en 2 Gbps para enlaces de nivel 1X, o 24 Gbps para enlaces de nivel 12X. Cada uno de estos canales InfiniBand, actúa como un enlace serie que puede operar a una de 5 relaciones de transmisión, dependiendo del hardware, el Single Data Rate (SDR), es el mínimo de 2,5 Gbps, el resto de relaciones de transmisión son: Double Data Rate (DDR), Quad Data Rate (QDR), Fourteen Data Rate (FDR) y Enhanced Data Rate (EDR). Para cada una de esta relaciones de transmisión existe una codificación distinta que reduce los bits efectivos enviados. Para las relaciones SDR,DDR y QDR, se usa la codificación de 8bits/10bits (8 bits de información efectiva por cada 10 enviados), esto significa que la velocidad pica efectiva es cuatro quintas partes de la velocidad real. Para las relaciones FDR y EDR, la codificación usa transmisiones de 64bits/66bits. Esto significa, que un enlace InfiniBand de nivel 1X, operando a una relación de transmisión doble (DDR) comunicara mensajes a una velocidad de 5 Gbps en ambas direcciones, que se reducen a 4 Gbps de bits de información efectivos. A continuación se muestran las velocidades de transmisión, de información efectiva i total de los enlaces InfiniBand, dependiendo de el nivel y la relación de transmisión. [5][6][7] SDR DDR QDR FDR EDR 1X 2, , , X ,25 103,125 12X ,75 309,375 Cuadro 3.1: Ancho de banda total de Infiniband en Gbps 28

30 CAPÍTULO 3. ESTADO DEL ARTE SDR DDR QDR FDR EDR 1X , X , X , Cuadro 3.2: Ancho de banda efectivo de Infiniband en Gbps La latencia en pico de InfiniBand varía dependiendo de la relación de transmisión usada, desde 200 Nanosegundos (ns) con SDR a 100 ns con QDR, unos 10 veces más lento que una memoria DDR3. Al ser una tecnología conmutada, todos los mensajes deben empezar y terminar en un. a daptador de canal. Cada nodo dispone de un Host Channel Adapter (HCA), y los periféricos usan un Target Channel Adapter (TCA) para conectarse a la red. Los mensajes InfiniBand pueden tener una longitud de hasta 4 Kilobyte (KB) Ethernet Ethernet es la tecnología de comunicación entre ordenadores por antonomasia, prácticamente la totalidad de los ordenadores personales, disponen de esta tecnología para conectarse a Internet. En el mundo de la supercomputación actualmente el 42,4 % de los ordenadores del Top 500 usan este tipo de interconexión. Ethernet es una tecnología estandarizada para redes de área local. Este estándar define ciertas características del nivel físico y de enlace del modelo Open System Interconnection (OSI). Ethernet mejora a medida que las especificaciones se van definiendo, básicamente se diferencian y mejoran entre ellas por cuatro conceptos, la velocidad de transmisión, el tipo de cableado, la longitud máxima y la topología. En el mundo de los supercomputadores las opciones Ethernet varían en gran medida, sin embargo existen dos especificaciones de tiene un gran peso. Un 27 % de los supercomputadores de la lista del Top 500 usan Gigabit Ethernet, y el 15,5 % usan la especificación más moderna de 10 Gigabit Ethernet. Ethernet funciona mediante computadores con acceso al medio por detección de la onda portadora y con detección de colisiones, y las distintas especificaciones dan a esta red múltiples soportes físicos, como fibra óptica, o cobre. Las nuevas especificaciones que están por venir podrían elevar la velocidad de esta tecnología hasta 40 y 100 Gbps. 29

31 CAPÍTULO 3. ESTADO DEL ARTE Otras tecnologías Actualmente las dos tecnologías anteriores son las dominantes en los supercomputadores, sin embargo aún existe una variedad importante de tipos de interconexión, debido a que esta tendencia no ha sido siempre así, y aún se conservan algunas tecnologías más antiguas. Dos de las redes más llamativas y que dominaron durante un tiempo en el mundo de HPC fueron las de los ordenadores de la empresa Cray, Cray Interconnect, o la red de interconexión de clústers de altas prestaciones Myrinet. Actualmente estas tecnologías se están quedando fuera del panorama HPC y cada vez se usan menos Unidad Central de Procesamiento La CPU es el cerebro de toda la máquina, llevan años perfeccionando su tecnología y a pesar de que los aceleradores son la fuerza bruta de las máquinas, no se les saca tanto provecho como a estas unidades Intel Xeon Los Intel Xeon, son los procesadores para servidores que distribuye Intel, actualmente ocupan una gran parte de la lista del Top 500, concretamente el 79,2 % de las máquinas disponen de estos procesadores. La gama de Xeon es muy variada, permitiendo procesadores de hasta 12 núcleos, o otros de bajo consumo y la cantidad de hardware estandarizado para este tipo de arquitectura es enorme IBM Power BQC Los llamados BlueGene son un proyecto de IBM, enfocado a conseguir rendimientos de Petaflops (PFLOPS) en un ámbito de bajo consumo. Debido a que estos procesadores son de máquinas tipo MPP, y estas máquinas son muy caras y específicas, su presencia en el Top 500 es algo menor, un 4,8 % de las máquinas son de tipo BlueGene. Sin embargo su potencia es bastante relevante pues a pesar de tener tan pocas máquinas, solo estas representan el 18,6 % del rendimiento total de la lista AMD Opteron AMD es el competidor más directo de Intel en procesadores, sin embargo en el Top 500 no consiguen tener mucha relevancia. Todos los supercomputadores que llevan modelos de procesador AMD son alrededor de un 8 % de las máquinas. 30

32 CAPÍTULO 3. ESTADO DEL ARTE 3.5. Aceleradores Los aceleradores, o coprocesadores, son microprocesadores utilizados como suplemento y apoyo al cálculo de la CPU. La idea de los aceleradores y coprocesadores, desciende del concepto de los procesadores vectoriales, que se convirtieron es una apuesta firme para la supercomputación en los inicios de ésta.[3] El uso de un gran nivel de paralelismo fue heredado para las aplicaciones gráficas, y de esta manera surgieron las Graphics Processing Unit (GPU), que explotan las pocas dependencias de datos de las aplicaciones gráficas, para ejecutar algoritmos paralelos masivos. En los últimos años, estos dispositivos se han transformado para volverse en la fuerza bruta de la computación. Estos dispositivos, para HPC, han perdido su sentido en el mundo de procesamiento gráfico y se han convertido en, General-Porpouse Computing on Graphics Processing Unit (GPGPU). Actualmente son uno de los componentes clave para crear los supercomputadores más potentes del mundo. Aproximadamente un 11 % de los sistemas en la lista del Top500 disponen de coprocesadores para acelerar sus cálculos. Los sistemas aceleradores más relevantes en la lista son las GPU de Nvidia en sus distintas arquitecturas, que representan el 72 % aproximadamente, de los sistemas aceleradores, seguidos por los coprocesadores de Intel, Xeon Phi, que representan un 25 % aproximadamente, del total de aceleradores. El resto de aceleradores son ATI Radeon, instalados en 2 supercomputadores.[8] Coprocesador Intel Xeon Phi La familia de aceleradores de Intel, lleva por nombre Xeon Phi. Es su particular apuesta para HPC. Descienden directamente del proyecto Larrabe, que era el intento de la empresa para adentrarse en el mundo de las GPU. Sin embargo el proyecto fue cancelado antes de su lanzamiento debido a sus bajos resultados de rendimiento. Fue entonces cuando se redirigió el proyecto al actual Xeon Phi. El abanico de modelos se compone de aceleradores de entre 57 i 61 núcleos de procesamiento, basados en la Arquitectura x86, comunicados mediante un bus de interconexión de tipo anillo y bidireccional. Este bus se compone de 3 buses independientes que se corresponden con un bus para los datos de 64 Bytes de ancho,un bus de dirección y finalmente un anillo para los mensajes de confirmación. Todos estos núcleos disponen de una cache L2 privada y coherente a través de un sistema de directorios. Los núcleos disponen soporte hardware para hasta 4 hilos.[9] La frecuencia de estos núcleos esta alrededor de los 1,1 Gigahercios (GHz) y, dependiendo del modelo, dispone de entre 6 i 16 Gigabyte (GB) de memoria. Dos de las mejoras importantes que incorporan estos aceleradores, son la posibilidad de ejecutar operaciones Simple Instruction Multiple Data de 512 bits, y la memoria de alta velocidad, que permite un ancho de banda pico de entre 240 i 352 Gigabyte por segundo (GB/s). El rendimiento pico oscila entre 1,003 i 1,208 Teraflops (TFLOPS) dependiendo de los distintos modelos.[10] 31

33 CAPÍTULO 3. ESTADO DEL ARTE Según los datos anteriores y los Precio de Venta al Público (PVP) que da Intel[11], los aceleradores de Intel, producen un rendimiento pico de 4,493 Gigaflops por vatio (GFLOPS/W), en el modelo que dispone de un consumo eléctrico más bajo, y llegan a los 4,027 GFLOPS/W, en los modelos con mayor consumo eléctrico. El rendimiento que ofrecen estos aceleradores teniendo en cuenta su coste se sitúa entre 0,397Gigaflops por euro (GFLOPS/e) y 0,802GFLOPS/e Nvidia Tesla La rama de hardware Tesla, es la apuesta de Nvidia para HPC, ya diseñada con objetivos más allá de los gráficos. Es la intención de Nvidia de diseñar GPGPU y el competidor directo a los coprocesadores de Intel, los Xeon Phi. Actualmente, y debido a ser de los primeros dispositivos de aceleración en entrar en el mundo HPC, conviven dos arquitecturas distintas. La arquitectura de Nvidia, Fermi, es la más antigua, i esta presente en el Top 500 en un 41,15 %, mientras que la arquitectura más actual, Kepler, ocupa el resto de máquinas con Nvidia. La arquitectura de las tarjetas gráficas para HPC, parte de la arquitectura del hardware para hacer gráficos, y de la unificación de los pequeños elementos de procesamiento de las GPU, los shaders. Estos elementos, eran distintos para cada instancia del pipeline gráfico, y la evolución de este tipo de hardware, llevo a estos pequeños núcleos a unificarse creando un único núcleo de procesamiento. La función de procesar gráficos derivó en grupos de grandes de núcleos de procesamiento, divididos por bloques ejecutando cada uno la misma instrucción de código sobre datos distintos, algo parecido a Simple Instruction Multiple Data. La poca lógica de control, da la ventaja a las tarjetas gráficas para procesar datos de manera masiva, pero obliga en caso de tener dependencias, o tratamientos más complejos de los datos, a tener gran cantidad de núcleos de procesamiento ejecutando código no útil. Nvidia dispone de 4 generaciones de GPGPU para la última de sus arquitecturas, Kepler, K10, K20, K20x y K40. Cada una de ellas aumenta el rendimiento pico de la anterior, que actualmente sitúa su máximo en 1,43 TFLOPS, de la K40, para operaciones de doble precisión, el rendimiento de la primera Tesla con arquitectura Kepler no llega al teraflop y se queda con 0.19, esto es debido a que la K10, había sido creada para realizar operaciones con precisión simple y no doble. Los 4 modelos disponen de 12, 6, 5 y 8 GB de memoria GDDR5 total respectivamente, que en realidad es algo menor, pues si se activan los códigos Error Correcting Code (ECC), se reduce en un 6,25 % la capacidad efectiva de la memoria. El consumo eléctrico de estas tarjetas se sitúa por los 235 W en la última de sus versiones, y 225 W en la primera de sus versiones preparada para doble precisión. Esto deja a las tarjetas de Nvidia ofreciendo para las tarjetas con doble precisión y en orden de las más potente en términos de rendimiento pico a la menos potente: 0,4276 GFLOPS/e[12], 0,5436GFLOPS/e [13] y 0,5945 GFLOPS/e[14]. [15] 32

34 CAPÍTULO 3. ESTADO DEL ARTE 3.6. Almacenamiento Las unidades de almacenamiento permiten mantener grandes cantidades de datos a largo plazo y permanentemente. Últimamente este elemento esta siendo el cuello de botella de muchos Centro de Procesamiento de Datos (CPD) pues hasta ahora, las únicas maneras de mantener datos de manera persistente eran mecánicas, y esto provoca dispositivos lentos, susceptibles a fallos y poco eficientes. Con la irrupción de las memorias flash, y en concreto, los Solid-State Drive (SSD), el panorama de la tecnología de almacenamiento esta cambiando. Dadas las características de nuestro CPD dedicado a HPC, la necesidad de tener unos datos persistentes de manera accesible rápidamente, no es tan crítica como en otro tipo de situaciones, como granjas de servidores web, o de máquinas virtuales Hard Disk Drive A día de hoy, la tecnología dominante en cuanto a almacenamiento son los Discos Duros, o por sus siglas en inglés Hard Disk Drive (HDD). Ésta, es una tecnología de almacenamiento mecánica que se basa en almacenar los datos en discos magnéticos. El desarrollo de esta técnica ha permitido conseguir grandes cantidades de memoria a un coste muy bajo, actualmente a unos 0,2 epor Byte. Sin embargo el mayor problema de esta, es el hecho de tener una parte mecánica. Para acceder a los datos es necesario hacer girar los discos magnéticos, y desplazar el cabezal sobre ellos para poder iniciar las lecturas y escrituras, de manera que, la velocidad a la que se pueden leer depende de la velocidad a la cual se puedan hacer girar. Esto implica también un consumo importantes de electricidad y producción de ruido. Actualmente las velocidades de discos más comunes son de 5.400, 7.200, y Revoluciones Por Minuto (RPM), siendo las dos primeras normalmente aplicadas en soluciones para portátiles y ordenadores personales de sobremesa respectivamente, y las dos últimas para el mundo de CPD Solid-state Drive La tecnología SSD justo empieza a quitar sitio a los HDD por sus infinitas ventajas respecto estos últimos y principalmente a que se esta consiguiendo bajar el coste por Byte. Este tipo de almacenamiento no consta de partes mecánicas, por lo que ofrece velocidades de acceso muy superiores a los dispositivos de almacenamiento mecánicos, así como consumos mucho más bajos. El limite de ésta tecnología actualmente es su coste por Byte, alrededor de los 2,8 e, y la capacidad máxima de estos dispositivos. 33

35 CAPÍTULO 3. ESTADO DEL ARTE 3.7. Estado del arte en el SCC Analizar la situación de la competición en los últimos años nos dará una idea general de cual es el hardware dedicado a la competición, que esta ganando y obteniendo los mejores resultados. A lo largo de las competiciones, el hardware estandarizado y el hecho de tener que presentar máquinas de tipo clúster, ha producido el efecto de tener equipos con máquinas bastante parecidas, sin embargo son las pequeñas diferencias las que deciden al vencedor. El gran salto del año 2013, en el SCC europeo ha sido la incorporación de los aceleradores en los clústers. Todas las máquinas de la edición de 2013 llevaban algún tipo de acelerador, a diferencia de su edición anterior, en el que solo una máquina llevaba aceleradores. La discrepancia entre los aceleradores era entre los sistemas Intel Xeon Phi y Nvidia Kepler y la cantidad de ellos. Todas las máquinas llevaban el mismo planteamiento base, dos sockets por nodo, con dos Intel Xeon E5 de 8 núcleos cada uno, junto con una interconexión InfiniBand FDR. La gran diferencia entre ellos residía en el número de nodos y la cantidad de memoria de la que disponían. Los clústers tenían entre 4 y 8 nodos, lo que dejaba el número total de núcleos entre 64 y 128. Finalmente las cantidades de memoria total diferían bastante entre equipos, situándose en cantidades de entre 256 y hasta 2014 GB.[16][17] Figura 3.1: Tabla con la configuración hardware de los clústers del SCC edición de

36 CAPÍTULO 3. ESTADO DEL ARTE Los ganadores de las categorías generales del SCC 2013, fueron los equipos sur africano y chino, en primera y segundo posición respectivamente. Ambos se vieron beneficiados por tener una mayor cantidad de nodos que sus competidores, y como consecuencia tener los mayores números de CPUs totales. Sin embargo, la diferencia entre ellos, llama la atención, pues el equipo que quedó en segundo lugar, a pesar de llevar 1 TeraByte (TB) de memoria, y disponer de 8 GB por núcleo, fue sobrepasado en puntuación general, por una máquina con la mitad de memoria por núcleo disponible, sólo 4 GB por núcleo. En contraposición, encontramos que el equipo con mayor rendimiento en el benchmark High Performance Linpack, disponía de una gran cantidad de memoria por núcleo, 8 GB, como el equipo en segundo lugar en la clasificación general. Esto hace pensar que, para las aplicaciones del SCC, la memoria no sea un recurso tan determinante, como la cantidad de nodos de cálculo, y que sean aplicaciones concretas las que obtengan cierta ventaja de tener grandes cantidades de memoria. Respecto a los aceleradores, los equipos ganadores de las distintas categorías (primera y segunda posición de la puntuación general, y mejor High Performance Linpack) comparten el hardware de aceleración, todos llevaban Nvidia Tesla con la Arquitectura Kepler K20. La cantidad de aceleradores varía entre equipos, e impacta en el rendimiento de forma curiosa, pues los equipos ganadores de la categoría general, no necesariamente tenían mayores cantidades de aceleradores. El equipo alemán, concretamente, tenía 16 aceleradores, 8 Xeon Phi y 8 Nvidia K20c, y a pesar de tener todo este potencial de cálculo, no pudieron sacar todo el provecho, sobretodo al tener que ejecutar aplicaciones en ambos aceleradores, por lo que decidieron ejecutar algunas aplicaciones específicas, en las CPU Nvidia, y otras en los coprocesadores de Intel, dando como resultado un clúster con un gran consumo eléctrico pero sin ser de los primeros en rendimiento, tal vez el efecto de llevar solo 4 nodos, y en consecuencia, tener 4 aceleradores por nodo, hizo que el cóctel no diera todo su potencial. Figura 3.2: Equipo de Costa Rica durante la competición del año

37 CAPÍTULO 3. ESTADO DEL ARTE Los equipos con mejor rendimiento llevaban 1 acelerador por nodo, a excepción de los dos equipos con mejor rendimiento High Performance Linpack,que llevaban 2 aceleradores por nodo, con 10 aceleradores en total en el caso de mejor rendimiento High Performance Linpack y 8 en total, en el segundo lugar.[18] En rendimiento para Linpack los 3 primeros puestos estaban muy reñidos con 8,455 TFLOPS, 8,321 TFLOPS y 8,132 TFLOPS, siendo este último resultado el del segundo equipo en la clasificación general. La diferencia con la edición anterior es significativa, pues a pesar de llevar, en general, mayor número de nodos, pero ir sin aceleradores, el mejor rendimiento Linpack que se obtuvo fue de 2,561 TFLOPS.[19] Por último, respecto al almacenamiento existen diferencias significativas entres los equipos, tanto como en el ámbito de la tecnología, SSD o HDD, como en el de la configuración, pues algunos llevaban alguna configuración de Redundant Array of Independent Disks (RAID). 36

38 Capítulo 4 Diseño de un Clúster Teórico Para presentarse al SCC, hay que llevar un clúster que puede llegar a costar decenas de miles de euros. En este capítulo, aprovechando los conocimientos del estado del arte de la supercomputación, crearemos un clúster participante, con infinita disponibilidad de dinero y con el objetivo de obtener la mayor puntuación posible Restricciones Las restricciones principales bajo las que debemos estar, siguen las normas del SCC. En primer lugar, el consumo de los componentes del clúster en funcionamiento en cualquier momento de la competición no debe exceder los W. En caso de que en algún momento el consumo exceda esa cantidad, una alarma saltara en la mesa de los jueces, y se descontara puntuación. Los elementos que cuentan dentro del límite de consumo, serán todos los nodos y switchs, cualquier computador que pudiera estar monitorizando el sistema y servidores de Network File System (NFS) o cualquier tipo de refrigeración Parámetros de decisión Para escoger los componentes del clúster nos basaremos en varios parámetros. Debido a que estamos simulando la creación de un clúster teórico, no tenemos un techo de gasto, así los parámetros de coste monetario serán ignorados, no se tendrá muy cuenta la cantidad de dinero invertido y por lo tanto, no será una prioridad. La restricción del gasto energético, es un límite importante en el diseño de nuestro clúster, condiciona el techo de rendimiento, por este motivo, se usarán los parámetros de coste por vatio y rendimiento en Floating Point Operations Per Second en consonancia, como principales parámetros de decisión. El consumo de los componentes se indica, al igual que su rendimiento, en pico, eso 37

39 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO significa que muy probablemente nunca lleguen a consumir ese pico, de manera que muy probablemente el cálculo teórico del consumo supere el límite de los W, pero correspondería a la experimentación y el ajuste de parámetros de los benchmarks evitar superar ese límite CPU La supremacía de Intel en el concurso es indiscutible, absolutamente todos los participantes llevaban un procesador Intel, y los escogeremos también por estar acostumbrados a trabajar con ellos y tener cierta ventaja sobre los AMD. Los sistemas MPP BluGene aparte de no ser considerados clúster sería difícil disponer de uno de menos de W. Durante el último concurso, todos los procesadores eran Intel E5, versiones 2650, 2660, 2670 y 2680, con 8 núcleos cada uno. La evolución de estos procesadores ha llevado a nuevas implementaciones mejoradas, para analizar esto escogemos las 4 versiones del anterior SCC y las comparamos con 4 versiones actualizadas de estos procesadores. En la figura 4.1 se puede apreciar la comparativa entre algunos procesadores de Intel. El procesador E5-4624L v2 cumple las características que necesitamos. Para empezar de su gama es el que menor consumo pico tiene, esto compensa en gran medida el gran consumo de las gráficas. Además incorpora 2 núcleos más que los procesadores que se usaron en ediciones anteriores, y procesar datos dentro de un mismo procesador suele ser más rápido. A cambio perdemos velocidad, pero se dispone de aceleradores para realizar los cálculos a gran velocidad y paralelamente. Con la especificación Simple Instruction Multiple Data dispone de un pico de 200 Gigaflops (GFLOPS) de doble precisión y ofrece el mayor rendimiento por W con 1,43 GFLOPS/W. 38

40 Figura 4.1: Tabla comparativa de procesadores Intel: Generación E vs E5-4600[20] 39

41 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO GPU Los resultados de los últimos SCC indican que tener aceleradores en los clústers aportan un rendimiento adicional suficientemente importante como para pagar su coste en consumo y precio, sin embargo como se ha podido observar, deben ser agregados de manera inteligente, arrojar toda esa potencia de calculo sin ningún tipo de control no acaba dando resultados esperados. Es esencial por lo tanto disponer de la cantidad apropiada de aceleradores. En la anterior edición del concurso, los aceleradores de Nvidia estuvieron en los equipos ganadores y con mayor rendimiento, sin una gran diferencia que pueda confirmar que los aceleradores de Nvidia dan mejor rendimiento en ese tipo de aplicaciones que los de Intel, pero suficiente para escogerlos como aceleradores para instalar. Dentro de los aceleradores Tesla, los que mejor rendimiento ofrecen son las últimas versiones, K40, con 1,43 TFLOPS y 6,085 GFLOPS/W. Escogeremos estos aceleradores pues se imponen sobre los otros en rendimiento pico, y en rendimiento por vatio, aunque un consumen un poco más ( 10 W más que sus modelos más avanzados usados en el último SCC, los k20x). Su consumo pico es de 235 W Red de Interconexión El tipo de red de interconexión que usaríamos para un clúster, sería una red InfiniBand, por varias razones. La tecnología InfiniBand esta expresamente desarrollada para el mundo de HPC, por lo que incorpora los mejores anchos de banda y latencias. También nos permite mayor flexibilidad respecto al uso de la torre de capas del modelo OSI que puede causar cuellos de botella software en el caso de Ethernet. Para poder ser realmente competitivos, debemos apostar por un máximo número de nodos, esto permite maximizar la velocidad del uso de la memoria, y dividir el trabajo entre más procesadores, por lo que instalaremos 8 nodos, para igualar al máximo de las ediciones anteriores del SCC. Necesitamos conectar un total de 8 nodos entre ellos, al ser un clúster de tamaño reducido, con un switch de pocos puertos será suficiente y contribuirá a tener un consumo reducido. El switch de Mellanox SX6005, cumple con los requisitos. Dispone de interfaces Quad Small Form-factor Pluggable (QSFP)+, tiene 12 puertos, con tamaño de 1 U,y tiene un consumo de 137 W por cable activo y 110 W por cable pasivo. La elección de este modelo se justifica por la cantidad de puertos más ajustada, y el soporte para las velocidades FDR. Esto último dispara el consumo pero nos permite usar la tecnología más rápida del momento y ya ha sido usada por unanimidad en la anterior edición del SCC.[21] Además de un switch para interconectar los nodos, necesitaremos adaptadores para poder usar los conectores InfiniBand, que admitan un protocolo de 4x y FDR. Con esta configuración aseguramos una interconexión de 54,54 Gbps de ancho de banda. Las tarjetas AOC-UIBF-m1 cumplen las especificaciones.[22] Finalmente para conectar los nodos al switch usaremos los cables InfiniBand pasivos, 40

42 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO MC , con soporte para velocidades FDR y 1 metro de longitud, suficiente para conectar dos puntos separados por hasta 22 U Configuración y número de nodos Para soportar los anteriores elementos de cálculo e interconexión debemos establecer el número de nodos del que dispondremos, y de hardware de colocación y almacenamiento. Dado el consumo elevado de las Nvidia Tesla, contaremos con un máximo de 8 de ellas, una por nodo. Esto implica que será necesaria una placa base, que soporte 2 procesadores de 10 núcleos cada uno, y que tenga como mínimo, 2 puertos PCI-express, uno de ellos de anchura x16 y el otro de x8, para el acelerador y la tarjeta InfiniBand respectivamente. El modelo X9QRi-F+ cumple con los requisitos, pues dispone de los puertos necesarios para alojar los dispositivos anteriores, y 4 sockets, de los cuales sólo usaremos 2, para poner las CPU. Se aprovecharán las capacidades de la placa base respecto a la memoria e instalaremos una memoria muy rápida de 1866 MHz, y una capacidad total de 1024 GB que dará 6,4 GB por núcleo. Instalaremos DIMMs de 16 GB para poder utilizar las de máxima velocidad, pues la placa base pide que se use como mucho un DIMM por canal si se quieren tener velocidades de 1866 MHz.[23] En cuanto al almacenamiento se refiere, nos decantaremos por la tecnología SSD, por ser mucho más eficiente y rápida que los discos duros sumado a que no tenemos un limite de gasto. El modelo de Intel S3700 de 800 GB de capacidad nos servirá. 41

43 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO Figura 4.2: Esquema de la placa base[24] Finalmente, nos hará falta una fuente de alimentación. El consumo pico estimado de un nodo es de unos 505,8 W, por lo tanto usaremos una fuente que ofrezca 600 W para alimentar nuestros componentes. La fuente de Athena Power Zippy P2M-6600P cumple los requisitos Colocación Debido al gran tamaño de las placas base, y a la altura de las tarjetas gráficas, no podremos utilizar cajas para servidores estándar, en su lugar usaremos estantes capacitados para ser instalados en racks. En cuanto a la altura, dejaremos un espacio de 3 U entre bases, para que quepan las GPU. Los estantes de Rackmount VSD-1u sirven a nuestro propósito. El espacio que suman todos los elementos, es de unas 24 U, que se corresponden a los 8 nodos de 3 U cada uno, más un espacio adicional para el switch de 1 U también. El rack PHP 7032 dispone de una altura de 32 U y la anchura necesaria para nuestros estantes. Por último, pero no menos importante, añadiremos algunos ventiladores a los nodos, para que se puedan refrigerar de manera adecuada Sumario Los consumos estimados se basan en referencias externas a los productos escogidos. Los consumos no estimados son la potencia consumida máxima que indica el fabricante. Algunos consumos no ha sido posible tenerlos en cuenta. 42

44 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO Hardware Unidades Consumo Pico Precio CPU: Intel Xeon E5-4624L W ,64 e GPU: Nvidia Tesla K W ,96 e[12] Memoria: MEM-DR316L-SL02-ER18 (16 GB) W (estimado) ,84 e[25] Placa Base: X9QRi-F W (estimado) 5.210,18 e[26] Interfaz de Red: AOC-UIBF-M1 8 Sin datos 4.104,77 e[27] Almacenamiento: Intel SSD DC S3700 (800 GB) 8 22,4 W (estimado) ,64 e[28] Fuente de Alimentación: Athena P2M-6600P (600 W) 8 Sin datos 947,76 e[29] Cables: Mellanox MC Sin datos 351,66 e[30] Switch: Mellanox SX W 3.480,30 e[31] Refrigeración: Ventilador 120x120x W (estimado) 380,16 e[32] Chasis: Rackmount VSD-1u 8 0 W 436,95 e[33] Rack: PHP 7032 (32 U) 1 0 W 287,81 e[34] Total 4.866,4 W ,67 e Cuadro 4.1: Sumario del hardware del clúster teórico 4.3. Métricas Teóricas Con todo el hardware del clúster teórico definido podemos evaluar el rendimiento que esperamos de éste. En rendimientos pico, tenemos los procesadores a 0,2 TFLOPS y las GPU a 1,43 TFLOPS, con 16 procesadores y 8 GPU disponemos de 14,64 TFLOPS. Si participáramos en el SCC, usando los datos de la edición de 2013, las máquina con mayor rendimiento en LINPACK tiene su pico en 12,06 TFLOPS, y consigue un rendimiento con LINPACK de 8,455 TFLOPS, esto implica que en caso de obtener la misma eficiencia que ellos, dispondríamos de una máquina de unos 10,26 TFLOPS reales para el test de LINPACK. Respecto al consumo, obtendríamos un clúster que podría llegar a consumir hasta 4.866,4 W. De todo este consumo, para comparar con los otros participante de la edición anterior solo tendremos en cuenta el de los elementos que difieren, es decir, CPU, GPU y el numero de ambos componentes en el clúster, pues para los demás componentes como InfiniBand FDR o placas base consideraremos que consumen mas o menos lo mismo que nuestros posibles competidores. Esto nos deja pues, con un consumo de las unidades de computo de W. A pesar de que obtendríamos un buen rendimiento, existe a priori, un consumo que sobrepasa el límite de W. Hay que tratar de interpretar pues, que los datos de consumo han sido escogidos de manera conservadora y en pico, por lo que para alcanzar este consumo, necesitaríamos un hardware ocupado a niveles del 100 %, usando todas sus funcionalidades a la vez, cosa que a la práctica es muy improbable, pues hay recursos que no se usan mientras se esta haciendo computo, y a la inversa. 43

45 CAPÍTULO 4. DISEÑO DE UN CLÚSTER TEÓRICO Aún así, calculando el consumo pico de los participantes de la edición anterior, y únicamente teniendo en cuenta el consumo de los componentes de cálculo, sitúa su máximo en y para el equipo con mejor rendimiento LINPACK en Debemos dejar constancia entonces que ninguno de los equipos, dispone de un consumo pico inferior a los W y que aún siendo una posibilidad remota alcanzar más de ese consumo por la definición de pico, son los participantes, los que deben gestionar los recursos de su clúster para evitar que supere esa cuota. De manera que en caso de ir al concurso, un entrenamiento previo con el hardware nos ayudaría a determinar que dispositivos podemos estar usando de manera simultanea y en que cantidad. 44

46 Capítulo 5 Hardware del Clúster A continuación se detallan los elementos hardware que constituyen el clúster que se ha construido Arndale Octa Las placas Arndale Octa, del fabricante In Signal, cedidas por el BSC, son el hardware que usaremos a modo de nodo en nuestro clúster. Integran los componentes necesarios de computación. El principal componente es el System on a Chip Exynos 5420, que lleva la capacidad de computo de la placa. Ademas integra también una pequeña memória NAND de 4 GB, KLM4G1FE3B-B001, que almacena un sistema operativo preinstalado. También dispone de las interficies de comunicación necesarias, como un puerto Ethernet de 100 Mega Bits Por Segundo (Mbps) de ancho de banda, Universal Serial Bus (USB) 3.0, High-Definition Multimedia Interface (HDMI) y también de una interfaz de conexión serie RS-232. Figura 5.1: Esquema de la arquitectura de la placa Arndale Octa 45

47 CAPÍTULO 5. HARDWARE DEL CLÚSTER SoC Samsung Exynos 5420 El principal componente de la placa Arndale Octa es el System on a Chip de Samsung, Exynos Éste, integra dos CPU multi-núcleo ARM, el Cortex-A15 y el Cortex-A7 con cuatro núcleos de cada uno. Además incorpora una GPU de ARM, la Mali-T628. Junto con estos últimos elementos de procesamiento. El chip dispone de 2 GB de memoria principal a una velocidad de hasta 933 Megahercios (MHz). CPU: ARM Cortex-A15 MP + Cortex-A7 MP Los Cortex-A15 y A7 en su versión multi-núcleo son las CPU del Exynos. Se trata de dos clusters de 4 núcleos de cada uno de los procesadores de ARM, ambos con la penúltima especificación del lenguaje máquina de ARM, el ARMv7. Los núcleos Cortex-A15 tienen una velocidad máxima de 1,8 GHz i los Cortex-A7 de 1,2 GHz. El conjunto de instrucciones que soporta empieza a tener un buen soporte para el mundo HPC, en la versión de ARMv7 han añadido capacidades especiales. Como la capacidad de usar operaciones vectoriales NEON (el Simple Instruction Multiple Data de ARM) y la extensión de las instrucciones a 32 bits. Además incluye las unidades de coma flotante por hardware que aumentan significativamente la velocidad en comparación con la coma flotante basada en software. A pesar de haber añadido todas las funcionalidades anteriores, aún hará falta esperar a la nueva especificación del lenguaje máquina de ARM, el ARMv8, para disponer de avances vitales si esta tecnología tiene que entrar en el mercado de HPC. De la ARMv8 se espera disponer de una arquitectura de 64 bits así como operaciones vectoriales para coma flotante de doble precisión. También implica disponer de mayor cantidad de registros. La arquitectura del Cortex-A15 tiene características interesantes. Observando la figura 5.2 podemos observar como el procesador es capaz de enviar a ejecutar 3 instrucciones a la vez, y que mientras no sean saltos o instrucciones de multiplicación y acumulación 2 de las 3 instrucciones enviadas pueden ser las mismas. 46

48 CAPÍTULO 5. HARDWARE DEL CLÚSTER Figura 5.2: Pipeline del Cortex-A15 GPU: Mali-T628 MP6 La Mali-T628 es la tarjeta gráfica que incorpora el System on a Chip. La especificación permite crear chips con hasta 8 shaders de cálculo, en concreto, en el Exynos 5420 la Mali dispone de 6 de ellos. 47

49 CAPÍTULO 5. HARDWARE DEL CLÚSTER Figura 5.3: Esquema de la arquitectura de la Mali-T628 MP6 Cada uno de estos núcleos de proceso, o shader cores, dispone de 4 unidades funcionales que pueden actuar en paralelo, 2 de para operaciones aritméticas y 2 más, para diferentes operaciones de carga de datos o texturas.[35] Figura 5.4: Esquema de la arquitectura de los shaders de la Mali La versión de Mali que implementa el chip Exynos de la Arndale Octa opera a una velocidad de 533 MHz y ofrece un rendimiento de hasta 109 GFLOPS.[36] 48

50 CAPÍTULO 5. HARDWARE DEL CLÚSTER Interfaz de Red: 100Mbps Ethernet La interfaz de red que ofrece la placa Arndale Octa, es Ethernet a una velocidad de 10/100 Mbps para conectores RJ-45. La interfaz está conectada al Exynos en el mismo lugar que el USB 2.0, por lo que implica tener un hub entre el procesador y las 2 interfaces. Esto se puede apreciar en la figura Almacenamiento: Tarjeta microsd + emmc Respecto al almacenamiento la placa Arndale Octa, ofrece dos maneras distintas de almacenar datos de manera persistente. La placa incorpora un chip de memoria, el Samsung KLM4G1FE3B-B001, con una capacidad de 4 GB, y con un sistema operativo Android preinstalado en él. Otra posibilidad es usar el puerto especializado para tarjetas microsecure Digital (SD). En nuestro caso, dispondremos de tarjetas microsd de 16 GB para usar a modo de disco duro, donde instalaremos el software de sistema y ciertas aplicaciones concretas de la pila de software necesaria para usar el clúster Red de Interconexión: 100Mb Ethernet Para realizar la interconexión tenemos a nuestra disposición la tecnología Ethernet, usaremos 6 cables Ethernet de cobre pasivos de 1,5 metros para conectar la interfaz de red de la placa Arndale Octa con nuestro switch de interconexión. El switch es un modelo de NetGear FS524 de 24 puertos Almacenamiento: NFS Para poder ejecutar las aplicaciones de tipo HPC es necesario disponer de más almacenamiento que el que nos pudiera dar una tarjeta microsd de 16 GB. Para solucionar este problema instalaremos un sistema NAS a través de la red por NFS, y usaremos parte del espacio que tenemos disponible en el disco del PC1. El hardware para almacenamiento que compartiremos de PC1 con el clúster es un disco duro de 500 GB de capacidad, modelo Seagate ST AS Limitaciones del hardware Debido a que es un hardware bastante nuevo y de entrenamiento, hay muchas utilidades a las cuales no se les puede sacar todo el provecho que se podría, o simplemente aún no están disponibles. A través de la experimentación y documentación hemos determinado cuales de estas utilidades que nos hubieran permitido mejorar el rendimiento de los nodos. 49

51 CAPÍTULO 5. HARDWARE DEL CLÚSTER OpenCL OpenCL es una especificación de una Aplication Programming Interface (API) y lenguaje de programación que permite crear aplicaciones que exploten el paralelismo y puedan ser ejecutadas tanto en CPU como en GPU. Esto nos permitiría explotar el poder de cálculo de la tarjeta gráfica. A pesar de que la Mali soporta OpenCL 1.1, los drivers para poder usarlo no están disponibles aún para la Arndale Octa.Existen, y es posible disponer de los drivers para usar el espacio de usuario y kernel de la memoria en la Mali, pero en este momento no se han distribuido los drivers para el núcleo de OpenCL OpenGL Compute Shaders Otra opción para aprovechar la capacidad de computo del procesador gráfico, esta en usar OpenGL. OpenGL es una API pensado para producir gráficos 2D y 3D por ordenador. En las últimas especificaciones de OpenGL han añadido la funcionalidad de los Compute Shaders, se trata de usar operaciones de OpenGL, pero sin tener el enfoque de entrada y salida, permitir realizar operaciones para cálculo. Arndale Octa ofrece soporte para OpenGl hasta la versión 3.0, sin embargo los Compute Shaders han sido añadidos para la versión 4.3, de modo que se debe descartar esta opción como modo para usar la capacidad de computo de la Mali big.little big.little es el nombre que recibe la tecnología de ARM que permite coordinar sus procesadores de mayor rendimiento con los de mayor eficiencia para exprimir la capacidad de procesamiento del hardware. Esta tecnología permitiría a los Cortex-A15 y Cortex-A7 trabajar conjuntamente y hace disponer de 8 núcleos a las placas Arndale Octa. Para activar la tecnología big.little y poder hacer uso de los 8 núcleos del Exynos 5, no es suficiente con encontrar una imagen compatible con la tecnología. Las últimas imágenes precreadas del sistema operativo para estas placas no llevan las opciones de soporte de big.little activadas, de manera que se debe bajar el código fuente de las imágenes, y realizar una compilación propia, activando las opciones para incluir en el kernel el soporte para big.little. A pesar de haber intentado generar una imagen del sistema operativo con soporte para big.little, no se obtuvo éxito al intentar arrancar dicha imagen, por lo que no se puede disponer de esta tecnología. 50

52 CAPÍTULO 5. HARDWARE DEL CLÚSTER Interfaz Ethernet La interfaz de Ethernet es uno de los mayores cuellos de botella que tenemos en el sistema hardware. Para empezar el estándar es de tan sólo 100 Mbps, en HPC actualmente se están instalando para Ethernet interfaces en los nodos de hasta 40 Gbps. También existe un problema respecto a la arquitectura de la placa Arndale Octa. Las conexiones Ethernet y los puertos USB están conectados a un hub y usan el mismo hardware de interfaz. Esto significa que necesitan pasar por un chip controlador que reduce la velocidad a la que podemos mandar mensajes. Debido a estos problemas, es altamente probable, que la comunicación entre nodos, sea a una velocidad tan lenta que haga que sea más factible ejecutar un programa en un único nodo, que distribuirlo entre los demás mediante un sistema de paso de mensajes Escalar la frecuencia de la CPU A pesar que la velocidad máxima de las CPU se sitúa en 1,8 GHz en el caso de los Cortex A-15 o 1,2 GHz para los A7, la experimentación con el hardware y su evaluación nos ha dado resultados inferiores a los esperados. La mayor culpa de ello lo tiene la frecuencia de operación de a la que operan los procesadores, que esta definida por unos registros que inicializa el kernel que usamos para arrancar las placas. Las imágenes de este sistema operativo limitan la velocidad del procesador a 0,8 GHz. Hay que pensar que estas placas no disponen de ningún sistema de refrigeración, por lo que tenerlas a máxima frecuencia muy probablemente produciría un apagado de emergencia por temperatura a los pocos minutos Sumario del Hardware En resumen el hardware usado que constituye al clúster es el siguiente: Nodo: Arndale Octa (x6) System on a Chip: Samsung Eynos 5420 CPU: ARM Cortex-A15 (x4) + ARM Cortex-A7 (x4) GPU: Mali T-628 Memoria: 2 GB 933 MHz 100 Mbps Interfaz Ethernet Almacenamiento: 4 GB Embedded Multi-Media Card (emmc) 16 GB SD Switch: NetGear FS524 Cables Ethernet Cobre (x6) Transformadores (x6) 51

53 CAPI TULO 5. HARDWARE DEL CLU STER 5.6. Clu ster de Arndale Octa Figura 5.5: Vista del clu ster (cerveza para comparar la escala) Figura 5.6: Vista del clu ster (cerveza para comparar la escala) 52

54 CAPI TULO 5. HARDWARE DEL CLU STER Figura 5.7: Vista cercana del clu ster Figura 5.8: Vista del switch de interconexio n 53

55 CAPÍTULO 5. HARDWARE DEL CLÚSTER Figura 5.9: Vista general del clúster 54

56 Capítulo 6 Diseño y Configuración del Clúster ARM 6.1. Emplazamiento del hardware La localización del clúster es en el edificio C6 del Campus Nord de la Universitat Politécnica de Catalunya (UPC), concretamente el laboratorio 103. El edificio pertenece al departamento de arquitectura de computadores, y dispone de una red interna con un servidor Dynamic Host Configuration Protocol (DHCP) que únicamente da acceso a las Media Access Control (MAC) registradas. Por este motivo las Arndale Octa no pueden tener un acceso directo a la red. El laboratorio dispone de suelo técnico por toda su superficie y parte de él está separado por cristales formando una pequeña pecera.la distribución del hardware en el laboratorio es la siguiente: Figura 6.1: Distribución del hardware en el laboratorio 55

57 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM En este laboratorio, disponemos de dos ordenadores comunes para realizar el trabajo, el hardware que llevan instalado es el siguiente: PC1: PC2: CPU: Intel Core i5-650 Placa Base: HP 304Ah Memoria: 8 GB 1333 MHz Interfaz de Red: 2 Tarjetas 100 Mbps Ethernet Almacenamiento: Seagate ST AS (500 GB) CPU: Intel Core 2 Duo E8500 GPU: ATI Radeon HD 3450 Placa Base: HP 3031h Memoria: 4 GB 800MHz Interfaz de Red: Tarjeta 1 Gbps Ethernet Almacenamiento: Western Digital WD500AAKS-6 (500 GB) 6.2. Diseño de la red de interconexión Debemos conectar todos los elementos de nuestro clúster para poder disponer de diversas utilidades. El acceso a Internet, aunque no debería ser estrictamente necesario, lo usaremos para dos propósitos distintos, el acceso al clúster de manera remota, sin necesidad de acceso al switch de interconexión, y la descarga de paquetes y programas necesarios. Esto facilitará y agilizara la instalación de software. También usaremos la interconexión para poder montar un sistema de archivos a través de la red NFS y mantener un servidor de monitorización del clúster. Debido a las características de la red interna del Departament d Arquitectura de Computadors (DAC) y a que únicamente los dos ordenadores que tenemos para trabajar disponen de dirección MAC registrada, debemos conectar el clúster a la red a través de uno de ellos. Esto implicará configurar un servidor DHCP en uno de los ordenadores para asignar las IP de la red del clúster a los nodos y activar la opción de forwarding para los paquetes que vengan de tal red. 56

58 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM Figura 6.2: Configuración de la red del clúster del laboratorio Para configurar forwarding en PC1 hace falta modificar el fichero /etc/iptables.sav: Hay que añadir básicamente dos líneas: -A FORWARD -s /24 -i eth1 -o eth0 -m conntrack --ctstate NEW -j ACCEPT Esto le dice a la máquina que todos los paquetes que entren por la interfaz eth1, de la red /24 salgan por la interfaz eth0 y que las conexiones que tengan un estado de nuevo sean aceptadas y se tome constancia de ellas. -A FORWARD -m conntrack --ctstate RELATED,ESTABLISHED -j ACCEPT Este comando establece que se acepten los paquetes de las conexiones que ya han sido establecidas, independientemente de donde vengan. Esto permite que las únicas conexiones las establezca el clúster desde dentro, y solo se acepten paquetes que llegan desde fuera cuando la ya se ha establecido la conexión previamente por petición de algún nodo. 57

59 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM 6.3. Configuración del hardware En primera instancia, para poder arrancar el software que nosotros queremos instalar en la tarjeta SD, debemos configurar unos pequeños pines en forma de switch como señala la figura 6.4 para indicar-le al hardware que arranque desde la tarjeta externa, y no desde su chip de almacenamiento integrado. Figura 6.3: Configuración para arranque desde la emmc integrada (por defecto) Figura 6.4: Configuración para arranque desde la tarjeta SD Una vez configurados los pines y insertada la tarjeta SD al dar alimentación a la placa esta arrancara y cargará el bootloader para arquitectura ARM que encuentre en la SD, el u-boot Arranque: Configuración de U-boot Cuando la placa Arndale Octa recibe potencia, siguiendo la configuración de pines anteriormente mencionada carga desde la tarjeta SD un bootloader. Este programa tiene la misión de cargar el kernel del sistema operativo e inicializar el sistema de ficheros raíz, ya sea desde una memoria flash, NFS u otros métodos. Para que U-boot cargue correctamente nuestro sistema operativo hay ciertas opciones a especificar durante el procesa de arranque, una vez U-boot a cargado y se puede configurar con su interfaz. Los comandos a ejecutar para configurar un arranque de nuestra imagen son los siguientes: $ setenv bootcmd "run addmac; fatload mmc 0:2 0x uimage; \ fatload mmc 0:2 0x uinitrd; fatload mmc 0:2 0x21f00000 \ board.dtb; bootm 0x x x21f00000" $ setenv bootargs "console=tty0 console=ttysac3,115200n8 \ root=uuid=41e0aae3-60d8-4fc2-bec4-fb486f5352ed rootwait ro" 58

60 CAPI TULO 6. DISEN O Y CONFIGURACIO N DEL CLU STER ARM 6.5. Gestio n del hardware Para poder gestionar el hardware sin necesidad de un sistema operativo, y poder hacer arrancar al U-boot, es necesario tener una conexio n fı sica con la placa. Esta conexio n nos la ofrece una interfaz serie a trave s de RS-232 de la que dispone la placa, en la figura 6.5 se puede observar el tipo de interfaz especificada. Para poder iniciar la comunicacio n necesitamos un programa de comunicacio n serie. $ sudo apt-get install minicom Este comando instala el programa de comunicacio n por serie. Los para metros para establecer la conexio n serie con la placa son: bits por segundo. 8 bits de datos. 1 bit de parada. Sin bit de paridad. Figura 6.5: Vista de la interfaz RS

61 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM 6.6. Configuración de la Red Para configurar la red del clúster, hemos usado los siguientes criterios: La red usara la máscara que determina los 8 últimos bits de cada dirección como la dirección de host. La numeración de la dirección de red será La IP del ordenador que servirá de router y salida a la red del departamento será , este ordenador será el PC1 por ser el más potente. Las direcciones IP asignadas a los nodos o placas, corresponderán con los dos últimos dígitos de la numeración impresa de fábrica, de manera que para la placa con numeración AOP A se le asignará el número de placa 81 y la IP Cualquier otro dispositivo que se conecte a esta red a través del switch se le asignará una IP a través del servidor DHCP. Número de Placa Dirección MAC Dirección IP 81 02:0e:0c:d6:94: :35:8c:d6:94: :b5:0c:d6:94: :f6:0c:d6:94: :75:cc:56:94: :b6:2c:56:94: Cuadro 6.1: Asignación de direcciones para los nodos DHCP La configuración del servidor DHCP tendrá dos objetivos. Permitir la conexión de equipos y su correspondiente asignación de IP, a la red interna del clúster de manera automática, y asignar direcciones IP de manera estática a los nodos del clúster mediante el uso de sus direcciones MAC. El primer objetivo será necesario para la gestión del clúster desde dentro, o cuando no sea posible de manera remota. Se consigue montando un servidor DHCP en nuestro ordenador de salida de la red. Es de vital importancia que este servidor solo actúe en la red interna del clúster, si estuviese funcionando con la interfaz de salida a la red del DAC podríamos producir colisiones y errores en todo el departamento. 60

62 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM La instalación del servicio DHCP se realiza mediante los repositorios de la distribución de Linux correspondiente: $ sudo apt-get install isc-dhcp-server Esto permitirá tener el servidor y el daemon listo, y generará ciertos ficheros de configuración que debemos modificar: /etc/dhcp/dhcpd.conf (en el servidor PC1): Parámetros del servidor DHCP: default-lease-time 600; max-lease-time 7200; Estas lineas especifican los tiempos que se mantendrán reservadas las IP. Definir la red sobre la que actuara el servidor DHCP: subnet netmask { range ; option routers ; option domain-name-servers , ; option domain-name "clusterocta.org"; } La primera linea permitirá que el servidor identifique cual de las dos interfaces esta conectada a la red del clúster y responda a las peticiones de los nodos, pero no actúe sobre las red del DAC. Dentro de la definición de la red, se encuentra en primer lugar el rango de direcciones IP que se asignarán a las peticiones que procedan de esta red, seguido de los parámetros de información de los que se informará el servidor, como la dirección de los servidores de Domain Name Service (DNS) o el router de salida a la red exterior. El segundo objetivo, nos permitirá tener acceso a los nodos de manera controlada, siendo conscientes en cada momento de cual es su dirección IP y siendo esta inmutable a pesar de cambiar los kernels o sistemas operativos que instalemos. Otorgar IP estática para los nodos del clúster mediante dirección MAC: host octa-81 { hardware ethernet 02:0e:0c:d6:94:24; fixed-address ; } host octa-82 { hardware ethernet 02:35:8c:d6:94:24; fixed-address ; } host octa-83 { hardware ethernet 02:b5:0c:d6:94:24; fixed-address ; } host octa-84 { 61

63 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM hardware ethernet 02:f6:0c:d6:94:24; fixed-address ; } host octa-85 { hardware ethernet 02:75:cc:56:94:24; fixed-address ; } host octa-86 { hardware ethernet 02:b6:2c:56:94:24; fixed-address ; } La directiva host nos permite especificar opciones para un dispositivo que realice peticiones DHCP en nuestra red. Para otorgar IP estáticas usamos la directiva fixed-address y especificamos la MAC que debe coincidir con ese dispositivo mediante hardware ethernet. Ahora, a pesar de que conectemos y desconectemos los nodos de la red, siempre tienen una IP fija y controlada. /etc/network/interfaces (en los nodos): Configurar la interfaz de red para que use la asignación automatica de IP por DHCP cuando se active la interfaz Ethernet: auto eth0 iface eth0 inet dhcp Las sentencias de este fichero le indican al nodo que cuando se configure automáticamente cuando se active la interfaz Ethernet y que use mensajes de DHCP para que le digan que IP tiene que asignar a su interfaz Disco en NFS Se ha escogido el nombre de /ancient para montar la unidad en red. Para poder configurar un sistema de ficheros en red, y poder disponer de más capacidad de almacenamiento para nuestro clúster hemos seguido estos pasos: Instalación del servicio NFS en el PC1: $ sudo apt-get install nfs-kernel-server nfs-common Este comando instala los servicios para NFS. /etc/exports (en el servidor PC1): Configuración del PC1 para que exporte un directorio de disco para la red: /ancient / (async,rw,no_root_squash, \no_subtree_check) Este comando permite anunciar la unidad /ancient a través de la red /etc/fstab (en los nodos): Configuración de los nodos para importar el directorio por red: UUID=41e0aae3-60d8-4fc2-bec4-fb486f5352ed / ext4 errors=remount-ro :/ancient /media/ancient nfs rsize=8192,wsize=8192,timeo=14,$ 62

64 CAPÍTULO 6. DISEÑO Y CONFIGURACIÓN DEL CLÚSTER ARM Esta línea le dice al nodo que monte en su directorio /media/ancient por NFS el directorio en red con dirección

65 Capítulo 7 Evaluación del Clúster 7.1. Metodología El Yokogawa WT230 es el equipo que usaremos para realizar las mediciones de consumo, se trata de un dispositivo medidor de potencia que permite tomar medidas de tensión, intensidad y potencia de las tomas de corriente que se desee. Usaremos ciertos test para estresar el clúster y comprobar la eficacia del hardware Configuración de Yokogawa Yokogawa dispone de una pantalla de control donde se pueden visualizar las medidas de intensidad, tensión y potencia, sin embargo ofrece también un método más fiable, para poder recopilar todas las muestras en un ordenador. Esta opción se realiza mediante la comunicación serie con una conexión USB/RS232. Para poder comunicar el ordenador portátil que usaremos y Yokogawa los parámetros de la la conexión serie deben ser los siguientes: 9600 bits por segundo. 8 bits de datos. 1 bit de parada. Sin bit de paridad. 64

66 CAPI TULO 7. EVALUACIO N DEL CLU STER Figura 7.1: Vista del Yokogawa tomando medidas del consumo del switch Usando un pequen o programa en Python, tomaremos las mediciones que Yokogawa nos enviara (3 por segundo) y se calculara una media de las muestras tomadas durante 40 segundos. Para poder usar el Yokogawa hace falta instalar su voltı metro y su amperı metro, de la forma correspondiente en cada caso, a la misma toma de corriente que el ladro n usado para conectar todos los transformadores y el switch. Figura 7.2: Esquema de la conexio n del Yokogawa a las tomas de corriente del clu ster 65

Dispositivos de Red Hub Switch

Dispositivos de Red Hub Switch Dispositivos de Red Tarjeta de red Para lograr el enlace entre las computadoras y los medios de transmisión (cables de red o medios físicos para redes alámbricas e infrarrojos o radiofrecuencias para redes

Más detalles

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia

INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia INTRODUCCION. Ing. Camilo Zapata czapata@udea.edu.co Universidad de Antioquia Qué es una Red? Es un grupo de computadores conectados mediante cables o algún otro medio. Para que? compartir recursos. software

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 3 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD3 El bien a adquirir se describe a continuación y consiste en cúmulo de supercómputo

Más detalles

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos.

No se requiere que los discos sean del mismo tamaño ya que el objetivo es solamente adjuntar discos. RAIDS MODO LINEAL Es un tipo de raid que muestra lógicamente un disco pero se compone de 2 o más discos. Solamente llena el disco 0 y cuando este está lleno sigue con el disco 1 y así sucesivamente. Este

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones TEMA 3 Redes SAN -Alta disponibilidad -Sistemas Redundantes -Curso 2010 Redes de Altas Prestaciones - Indice Conceptos Componentes de un SAN Términos más utilizados Topología

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 2 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD 2 El bien a adquirir se describe a continuación y consiste de un cúmulo de

Más detalles

UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE

UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE AÑO: 2010 Qué es un servidor Blade? Blade Server es una arquitectura que ha conseguido integrar en

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones TEMA 3 Tecnologías Soporte tolerante a fallos -Curso 2010 Redes de Altas Prestaciones - Indice Conceptos Topología en Alta Disponibilidad Tecnologías disponibles Tecnología

Más detalles

QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A)

QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A) APRENDERAPROGRAMAR.COM QUÉ ES UN SERVIDOR Y CUÁLES SON LOS PRINCIPALES TIPOS DE SERVIDORES? (PROXY, DNS, WEB, FTP, SMTP, ETC.) (DV00408A) Sección: Divulgación Categoría: Herramientas Informáticas Fecha

Más detalles

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN

LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN Tabla de Contenidos LINEAMIENTOS ESTÁNDARES APLICATIVOS DE VIRTUALIZACIÓN... 1 Tabla de Contenidos... 1 General... 2 Uso de los Lineamientos Estándares...

Más detalles

CAPÍTULO 1 Instrumentación Virtual

CAPÍTULO 1 Instrumentación Virtual CAPÍTULO 1 Instrumentación Virtual 1.1 Qué es Instrumentación Virtual? En las últimas décadas se han incrementado de manera considerable las aplicaciones que corren a través de redes debido al surgimiento

Más detalles

Análisis de aplicación: Virtual Machine Manager

Análisis de aplicación: Virtual Machine Manager Análisis de aplicación: Virtual Machine Manager Este documento ha sido elaborado por el Centro de Apoyo Tecnológico a Emprendedores bilib, www.bilib.es Copyright 2011, Junta de Comunidades de Castilla

Más detalles

TEMA 4. Unidades Funcionales del Computador

TEMA 4. Unidades Funcionales del Computador TEMA 4 Unidades Funcionales del Computador Álvarez, S., Bravo, S., Departamento de Informática y automática Universidad de Salamanca Introducción El elemento físico, electrónico o hardware de un sistema

Más detalles

WINDOWS 2008 5: TERMINAL SERVER

WINDOWS 2008 5: TERMINAL SERVER WINDOWS 2008 5: TERMINAL SERVER 1.- INTRODUCCION: Terminal Server proporciona una interfaz de usuario gráfica de Windows a equipos remotos a través de conexiones en una red local o a través de Internet.

Más detalles

Introducción a las redes de computadores

Introducción a las redes de computadores Introducción a las redes de computadores Contenido Descripción general 1 Beneficios de las redes 2 Papel de los equipos en una red 3 Tipos de redes 5 Sistemas operativos de red 7 Introducción a las redes

Más detalles

Introducción Subsistemas de disco inteligentes Técnicas de entrada y salida. Storage. Esteban De La Fuente Rubio SASCO. 7 de noviembre de 2013

Introducción Subsistemas de disco inteligentes Técnicas de entrada y salida. Storage. Esteban De La Fuente Rubio SASCO. 7 de noviembre de 2013 SASCO 7 de noviembre de 2013 Tabla de contenidos 1 Introducción Arquitectura de servidor central Arquitectura de almacenamiento central 2 JBOD RAID 3 SCSI Fibre Channel SAN IP Introducción Arquitectura

Más detalles

ESCUELA NORMAL PROF. CARLOS A CARRILLO

ESCUELA NORMAL PROF. CARLOS A CARRILLO ESCUELA NORMAL PROF. CARLOS A CARRILLO QUE ES UNA RED L A S T I C S E N L A E D U C A C I O N P R E E S C O L A R P R O F. C R U Z J O R G E A R A M B U R O A L U M N A : D U L C E C O R A Z Ó N O C H

Más detalles

Figura 1.4. Elementos que integran a la Tecnología de Información.

Figura 1.4. Elementos que integran a la Tecnología de Información. 1.5. Organización, estructura y arquitectura de computadoras La Gráfica siguiente muestra la descomposición de la tecnología de información en los elementos que la conforman: Figura 1.4. Elementos que

Más detalles

1. CONTEXTO...3 2. INTRODUCCIÓN Y JUSTIFICACIÓN DE LA UNIDAD...3 3. IDEAS Y CONOCIMIENTOS PREVIOS DE LOS ESTUDIANTES...3 4. OBJETIVOS...

1. CONTEXTO...3 2. INTRODUCCIÓN Y JUSTIFICACIÓN DE LA UNIDAD...3 3. IDEAS Y CONOCIMIENTOS PREVIOS DE LOS ESTUDIANTES...3 4. OBJETIVOS... UNIDAD DIDÁCTICA SISTEMAS TELEMÁTICOS Y REDES LOCALES ALEJANDRO TORRES DOMÍNGUEZ PABLO FERNÁNDEZ FERREIRA ROBERTO OTERO ÁLVAREZ ÍNDICE 1. CONTEXTO...3 2. INTRODUCCIÓN Y JUSTIFICACIÓN DE LA UNIDAD...3 3.

Más detalles

Sistemas de Información. Junio de 2015

Sistemas de Información. Junio de 2015 Sistemas de Información Junio de 2015 Pliego de prescripciones técnicas aplicable al suministro e instalación de servidores departamentales y otro equipamiento hardware para las plataformas de ejecución

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

INSTALACIÓN, OPERACIÓN Y PROGRAMACIÓN DE EQUIPOS Y SISTEMAS TELEFÓNICOS

INSTALACIÓN, OPERACIÓN Y PROGRAMACIÓN DE EQUIPOS Y SISTEMAS TELEFÓNICOS 09-06-2015 1 Descripción y funcionamiento de una central PABX 09-06-2015 2 Un PBX o PABX (siglas en inglés de Private Branch Exchange y Private Automatic Branch Exchange para PABX), la cual es la red telefónica

Más detalles

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Juan Carlos Fernández Rodríguez. Área de HPC. Centro Informático Científico de Andalucía (CICA) Junta de Andalucía

Más detalles

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS GRADO 11 Nombre(s) y Apellidos: Karen Andrea Marín Mendoza Documento: 98110301014 FICHA NÚMERO COLEGIO Instituto Madre Del Buen Consejo FECHA: 23 de abril 2014

Más detalles

UNIDADES FUNCIONALES DEL ORDENADOR TEMA 3

UNIDADES FUNCIONALES DEL ORDENADOR TEMA 3 UNIDADES FUNCIONALES DEL ORDENADOR TEMA 3 INTRODUCCIÓN El elemento hardware de un sistema básico de proceso de datos se puede estructurar en tres partes claramente diferenciadas en cuanto a sus funciones:

Más detalles

Hostaliawhitepapers. Las ventajas de los Servidores dedicados. www.hostalia.com. Cardenal Gardoki, 1 48008 BILBAO (Vizcaya) Teléfono: 902 012 199

Hostaliawhitepapers. Las ventajas de los Servidores dedicados. www.hostalia.com. Cardenal Gardoki, 1 48008 BILBAO (Vizcaya) Teléfono: 902 012 199 Las ventajas de los Servidores dedicados Cardenal Gardoki, 1 48008 BILBAO (Vizcaya) Teléfono: 902 012 199 www.hostalia.com A la hora de poner en marcha una aplicación web debemos contratar un servicio

Más detalles

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX

COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX COMO CONFIGURAR UNA MAQUINA VIRTUAL EN VIRTUALBOX PARA ELASTIX En este manual se presenta el proceso de configuración de una Maquina Virtual en VirtualBox, que será utilizada para instalar un Servidor

Más detalles

INTRODUCCIÓN. En el mundo actual, el manejo y acceso de la información para tenerla y manejarla en el

INTRODUCCIÓN. En el mundo actual, el manejo y acceso de la información para tenerla y manejarla en el INTRODUCCIÓN Antecedentes En el mundo actual, el manejo y acceso de la información para tenerla y manejarla en el lugar y momento adecuados se ha hecho esencial para poder ser un profesional o empresa

Más detalles

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true I. FUNDAMENTOS 3. Representación de la información Introducción a la Informática Curso de Acceso a la Universidad

Más detalles

Interoperabilidad de Fieldbus

Interoperabilidad de Fieldbus 2002 Emerson Process Management. Todos los derechos reservados. Vea este y otros cursos en línea en www.plantwebuniversity.com. Fieldbus 201 Interoperabilidad de Fieldbus Generalidades Qué es interoperabilidad?

Más detalles

5 formas de mejorar su negocio con COMPUTACIÓN EN LA NUBE

5 formas de mejorar su negocio con COMPUTACIÓN EN LA NUBE 5 formas de mejorar su negocio con COMPUTACIÓN EN LA NUBE Julio 2012 Introducción. Cada empresa y cada empresario ha entendido que, si hay una constante, ésta es el cambio. Día a día, los negocios se ponen

Más detalles

USB (Universal Serial Bus)

USB (Universal Serial Bus) USB (Universal Serial Bus) USB es una interfaz para transmisión de datos y distribución de energía que ha sido introducida en el mercado de PC s y periféricos para mejorar las lentas interfaces serie (RS-232)

Más detalles

Cableado Estructurado. Diseño de la LAN. Diseño de redes. Contenido Objetivos Componentes Metodología Cableado Estruc.

Cableado Estructurado. Diseño de la LAN. Diseño de redes. Contenido Objetivos Componentes Metodología Cableado Estruc. Diseño de la LAN Cableado Estructurado A pesar de las mejoras en rendimiento y prestaciones del HW de red, el diseño de redes es, cada vez más, complicado. Entornos cada vez más complejos Múltiples medios

Más detalles

Arquitecturas GPU v. 2013

Arquitecturas GPU v. 2013 v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,

Más detalles

UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I. Licda. Consuelo Eleticia Sandoval

UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I. Licda. Consuelo Eleticia Sandoval UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I Licda. Consuelo Eleticia Sandoval OBJETIVO: ANALIZAR LAS VENTAJAS Y DESVENTAJAS DE LAS REDES DE COMPUTADORAS. Que es una red de computadoras?

Más detalles

Proceso Unificado de Rational PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes:

Proceso Unificado de Rational PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes: PROCESO UNIFICADO DE RATIONAL (RUP) El proceso de desarrollo de software tiene cuatro roles importantes: 1. Proporcionar una guía de actividades para el trabajo en equipo. (Guía detallada para el desarrollo

Más detalles

1.- FUNCION DE UNA RED INFORMATICA

1.- FUNCION DE UNA RED INFORMATICA 1.- FUNCION DE UNA RED INFORMATICA Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados

Más detalles

Metodología básica de gestión de proyectos. Octubre de 2003

Metodología básica de gestión de proyectos. Octubre de 2003 Metodología básica de gestión de proyectos Octubre de 2003 Dentro de la metodología utilizada en la gestión de proyectos el desarrollo de éstos se estructura en tres fases diferenciadas: Fase de Éjecución

Más detalles

Migración a un Data Center de 40 Gbps con la tecnología bidireccional de Cisco QSFP BiDi

Migración a un Data Center de 40 Gbps con la tecnología bidireccional de Cisco QSFP BiDi Informe técnico Migración a un Data Center de 40 Gbps con la tecnología bidireccional de Cisco QSFP BiDi Descripción general Como resultado de la consolidación de Data Centers, virtualización de servidores

Más detalles

Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala

Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala Intel Tera-Scale Computing Alumno: Roberto Rodriguez Alcala 1. Introducción Los procesadores con dos núcleos existen actualmente, y los procesadores de cuatro están insertándose en el mercado lentamente,

Más detalles

CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA

CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA CAPÍTULO 2 DEFINICIÓN DEL PROBLEMA En el capítulo anterior se describió la situación inicial en la que se encontraba la Coordinación de Cómputo Académico (CCA) del Departamento de Ingenierías (DI) de la

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

ALOJAMIENTO DE SERVIDORES EN EL C.P.D.

ALOJAMIENTO DE SERVIDORES EN EL C.P.D. ALOJAMIENTO DE SERVIDORES EN EL C.P.D. Descripción del servicio. Los Servicios Informáticos ofrecen el servicio de housing o alojamiento de servidores en las instalaciones existentes de la planta sótano

Más detalles

I INTRODUCCIÓN. 1.1 Objetivos

I INTRODUCCIÓN. 1.1 Objetivos I INTRODUCCIÓN 1.1 Objetivos En el mundo de la informática, la auditoría no siempre es aplicada en todos las empresas, en algunos de los casos son aplicadas por ser impuestas por alguna entidad reguladora,

Más detalles

Guía de uso del Cloud Datacenter de acens

Guía de uso del Cloud Datacenter de acens guíasdeuso Guía de uso del Cloud Datacenter de Calle San Rafael, 14 28108 Alcobendas (Madrid) 902 90 10 20 www..com Introducción Un Data Center o centro de datos físico es un espacio utilizado para alojar

Más detalles

PROCEDIMIENTO ESPECÍFICO. Código G083-01 Edición 0

PROCEDIMIENTO ESPECÍFICO. Código G083-01 Edición 0 Índice 1. TABLA RESUMEN... 2 2. OBJETO... 2 3. ALCANCE... 2 4. RESPONSABILIDADES... 3 5. ENTRADAS... 3 6. SALIDAS... 3 7. PROCESOS RELACIONADOS... 3 8. DIAGRAMA DE FLUJO... 4 9. DESARROLLO... 5 9.1. DEFINICIÓN...

Más detalles

AHORRACOM SOLUCIONES AVANZADAS S.L. Avda. de la Industria 13, Oficina 25. 28108 Alcobendas, Madrid. www.ahorracom.com

AHORRACOM SOLUCIONES AVANZADAS S.L. Avda. de la Industria 13, Oficina 25. 28108 Alcobendas, Madrid. www.ahorracom.com PAGTE Plan de Ahorro y Gestión de Telecomunicaciones para Empresas En Ahorracom nos ponemos de su parte. Por eso nos interesa que usted, nuestro cliente, esté al tanto de todos los procesos que llevamos

Más detalles

Arquitectura: Clusters

Arquitectura: Clusters Universidad Simón Bolívar Arquitectura: Clusters Integrantes: - Aquilino Pinto - Alejandra Preciado Definición Conjuntos o conglomerados de computadoras construidos mediante la utilización de hardware

Más detalles

I NTRODUCCIÓN 1. ORDENADOR E INFORMÁTICA

I NTRODUCCIÓN 1. ORDENADOR E INFORMÁTICA I. INTRODUCCIÓN 1. ORDENADOR E INFORMÁTICA 1.1. Informática Informática (Información Automática) es la ciencia y la técnica del tratamiento automatizado de la información mediante el uso de ordenadores.

Más detalles

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com

CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK. www.formacionhadoop.com CURSO: APACHE SPARK CAPÍTULO 2: INTRODUCCIÓN A APACHE SPARK www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Problemas con los sistemas tradicionales 3 Qué es Spark? 3.1 Procesamiento de datos distribuido

Más detalles

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia. DISCOS RAID Raid: redundant array of independent disks, quiere decir conjunto redundante de discos independientes. Es un sistema de almacenamiento de datos que utiliza varias unidades físicas para guardar

Más detalles

Introducción En los años 60 s y 70 s cuando se comenzaron a utilizar recursos de tecnología de información, no existía la computación personal, sino que en grandes centros de cómputo se realizaban todas

Más detalles

El objetivo principal del presente curso es proporcionar a sus alumnos los conocimientos y las herramientas básicas para la gestión de proyectos.

El objetivo principal del presente curso es proporcionar a sus alumnos los conocimientos y las herramientas básicas para la gestión de proyectos. Gestión de proyectos Duración: 45 horas Objetivos: El objetivo principal del presente curso es proporcionar a sus alumnos los conocimientos y las herramientas básicas para la gestión de proyectos. Contenidos:

Más detalles

Gestión de proyectos

Gestión de proyectos Gestión de proyectos Horas: 45 El objetivo principal del presente curso es proporcionar a sus alumnos los conocimientos y las herramientas básicas para la gestión de proyectos. Gestión de proyectos El

Más detalles

Servidores blade. AGUILERA FERNANDO [Escribir el nombre de la compañía] 14/04/2011

Servidores blade. AGUILERA FERNANDO [Escribir el nombre de la compañía] 14/04/2011 2011 Servidores blade AGUILERA FERNANDO [Escribir el nombre de la compañía] 14/04/2011 SERVIDORES BLADE Definición.- Blade Server es una arquitectura que ha conseguido integrar en tarjetas todos los elementos

Más detalles

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es)

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es) Microsoft HPC V 1.0 José M. Cámara (checam@ubu.es) Introducción Microsoft HPC (High Performance Computing) es la solución de Microsoft a la computación de alto rendimiento. Está enfocado principalmente

Más detalles

Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking

Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking 1 de 13 Seminario Electrónico de Soluciones Tecnológicas sobre Content Networking 3 Bienvenida. 4 Objetivos. 5 Soluciones comerciales

Más detalles

Introducción a las Redes

Introducción a las Redes Introducción a las Redes Tabla de Contenidos 1. Introducción a las Redes... 2 1.1 Clasificación de las redes y topología... 3 1.1.1 Según su distribución...3 1.1.2 Según su tamaño...6 1. Introducción a

Más detalles

App para realizar consultas al Sistema de Información Estadística de Castilla y León

App para realizar consultas al Sistema de Información Estadística de Castilla y León App para realizar consultas al Sistema de Información Estadística de Castilla y León Jesús M. Rodríguez Rodríguez rodrodje@jcyl.es Dirección General de Presupuestos y Estadística Consejería de Hacienda

Más detalles

Propuesta de Portal de la Red de Laboratorios Virtuales y Remotos de CEA

Propuesta de Portal de la Red de Laboratorios Virtuales y Remotos de CEA Propuesta de Portal de la Red de Laboratorios Virtuales y Remotos de CEA Documento de trabajo elaborado para la Red Temática DocenWeb: Red Temática de Docencia en Control mediante Web (DPI2002-11505-E)

Más detalles

INFORME Nº 052-2012-GTI INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE

INFORME Nº 052-2012-GTI INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE INFORME Nº 052-2012-GTI INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE 1. Nombre del Área El área encargada de la evaluación técnica para la actualización (en el modo de upgrade) del software IBM PowerVM

Más detalles

Anexo 13 : Redes de Almacenamiento (SAN - Storage Area Network)

Anexo 13 : Redes de Almacenamiento (SAN - Storage Area Network) Anexo 13 : Redes de Almacenamiento (SAN - Storage Area Network) ST-090 CARACTERÍSTICAS GENERALES - Cada unidad deberá ser entregada con 1 (un) juego de manuales de configuración de hardware y software.

Más detalles

Capítulo 5. Cliente-Servidor.

Capítulo 5. Cliente-Servidor. Capítulo 5. Cliente-Servidor. 5.1 Introducción En este capítulo hablaremos acerca de la arquitectura Cliente-Servidor, ya que para nuestra aplicación utilizamos ésta arquitectura al convertir en un servidor

Más detalles

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación

REDES INFORMÁTICAS REDES LOCALES. Tecnología de la Información y la Comunicación REDES INFORMÁTICAS REDES LOCALES INDICE 1. Las redes informáticas 1.1 Clasificación de redes. Red igualitaria. Red cliente-servidor 2. Las redes de área local 2.1 Estructura de una LAN 2.2 Protocolos de

Más detalles

Las Relaciones Públicas en el Marketing social

Las Relaciones Públicas en el Marketing social Las Relaciones Públicas en el Marketing social El marketing social es el marketing que busca cambiar una idea, actitud o práctica en la sociedad en la que se encuentra, y que intenta satisfacer una necesidad

Más detalles

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación.

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. TEMA: Las Redes NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación. QUÉ ES UNA RED? Una red informática es un conjunto de dispositivos interconectados

Más detalles

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio).

1 GLOSARIO. Actor: Es un consumidor (usa) del servicio (persona, sistema o servicio). 1 GLOSARIO A continuación se definen, en orden alfabético, los conceptos básicos que se han abordado a lo largo del desarrollo de la metodología para la gestión de requisitos bajo la Arquitectura Orientada

Más detalles

Arquitectura de sistema de alta disponibilidad

Arquitectura de sistema de alta disponibilidad Mysql Introducción MySQL Cluster esta diseñado para tener una arquitectura distribuida de nodos sin punto único de fallo. MySQL Cluster consiste en 3 tipos de nodos: 1. Nodos de almacenamiento, son los

Más detalles

CAPITULO I El Problema

CAPITULO I El Problema CAPITULO I El Problema 1. CAPITULO I EL PROBLEMA. 1.1. PLANTEAMIENTO DEL PROBLEMA. Desde su nacimiento la Facultad de Administración, Finanzas e Informática dispone del departamento de la biblioteca, con

Más detalles

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual Introducción Algunas de las personas que trabajan con SGBD relacionales parecen preguntarse porqué deberían preocuparse del diseño de las bases de datos que utilizan. Después de todo, la mayoría de los

Más detalles

Roles y Características

Roles y Características dominio Roles y Características Una vez instalado Windows Server 2008 y configuradas algunas opciones básicas de Windows Server 2008 desde el Panel de Control o desde el Administrador del Servidor, las

Más detalles

Sistema de marketing de proximidad

Sistema de marketing de proximidad Dizan Vasquez Propuesta de proyecto Sistema de marketing de proximidad ACME México Dizan Vasquez Índice general 1. Descripción 3 2. Resúmen ejecutivo 4 2.1. Objetivo.................................................

Más detalles

El Outsourcing como Opción Estratégica

El Outsourcing como Opción Estratégica El Outsourcing como Opción Estratégica Improven Consultores Colón 18, 2ºF 46004 Valencia Tel: 96 352 18 22 Fax: 96 352 20 79 www.improven-consultores.com info@improven-consultores.com El outsourcing como

Más detalles

PCLabs. Práctica de Ingeniería del Software I Curso 2008/09. Descripción del problema

PCLabs. Práctica de Ingeniería del Software I Curso 2008/09. Descripción del problema PCLabs Práctica de Ingeniería del Software I Curso 2008/09 Descripción del problema Introducción... 1 Organización de la empresa... 1 Gestión del almacén... 2 Gestión de pedidos de clientes... 3 Gestión

Más detalles

Tecnología IP para videovigilancia... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el

Tecnología IP para videovigilancia... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el para videovigilancia....... Los últimos avances han hecho posible conectar cámaras directamente a una red de ordenadores basada en el protocolo IP. La tecnología de las cámaras de red permite al usuario

Más detalles

TELECOMUNICACIONES Y REDES

TELECOMUNICACIONES Y REDES TELECOMUNICACIONES Y REDES Redes Computacionales I Prof. Cristian Ahumada V. Unidad VII: Capa de Enlace de Datos Contenido 1. Introducción. 2. Acceso al Medio. 3. Técnicas de Control de acceso al medio.

Más detalles

TeCS. Sistema de ayuda a la gestión del desarrollo de producto cerámico

TeCS. Sistema de ayuda a la gestión del desarrollo de producto cerámico TeCS Sistema de ayuda a la gestión del desarrollo de producto cerámico En el origen de todo proyecto de éxito se halla la capacidad de encauzar y estructurar la creatividad TeCS ofrece un entorno de fácil

Más detalles

Curso Online de Microsoft Project

Curso Online de Microsoft Project Curso Online de Microsoft Project Presentación El curso a distancia estudia conceptos generales sobre las tecnologías relacionadas con Internet. Conceptos que cualquier usuario de ordenadores debe conocer

Más detalles

2. OBJETIVOS Y CARACTERÍSTICAS GENERALES DE LA INFRAESTRUCTURA

2. OBJETIVOS Y CARACTERÍSTICAS GENERALES DE LA INFRAESTRUCTURA Contratación de infraestructura para la instalación del Centro de Procesamiento y Almacenamiento de Datos del Centro Internacional de Tecnologías Avanzadas en Peñaranda de Bracamonte (Salamanca) Condiciones

Más detalles

Pruebas y Resultados PRUEBAS Y RESULTADOS AGNI GERMÁN ANDRACA GUTIERREZ

Pruebas y Resultados PRUEBAS Y RESULTADOS AGNI GERMÁN ANDRACA GUTIERREZ PRUEBAS Y RESULTADOS 57 58 Introducción. De la mano la modernización tecnológica que permitiera la agilización y simplificación de la administración de los recursos con los que actualmente se contaban

Más detalles

El gasto total elegible de la BBPP, Centro de Supercomputación es de 3.172.033,11. La ayuda FEDER, es el 80%, 2.537.626,48

El gasto total elegible de la BBPP, Centro de Supercomputación es de 3.172.033,11. La ayuda FEDER, es el 80%, 2.537.626,48 Otra buena práctica de actuación cofinanciada es la presentada por la Dirección General de Telecomunicaciones de la Junta de Castilla y León consistente en las actuaciones realizadas en la Fundación Centro

Más detalles

Elementos requeridos para crearlos (ejemplo: el compilador)

Elementos requeridos para crearlos (ejemplo: el compilador) Generalidades A lo largo del ciclo de vida del proceso de software, los productos de software evolucionan. Desde la concepción del producto y la captura de requisitos inicial hasta la puesta en producción

Más detalles

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) Carlos Bernal, Ana Silva, Marceliano Marrón, Juan Antonio Ortega, Claudio J. Arjona Área de HPC Centro Informático Científico de

Más detalles

CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES

CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES CAPÍTULO 4 ANÁLISIS DE IMPLEMENTACIONES En el anterior capítulo se realizaron implementaciones en una red de datos para los protocolos de autenticación Kerberos, Radius y LDAP bajo las plataformas Windows

Más detalles

PROGRAMACIÓN ORIENTADA A OBJETOS Master de Computación. II MODELOS y HERRAMIENTAS UML. II.2 UML: Modelado de casos de uso

PROGRAMACIÓN ORIENTADA A OBJETOS Master de Computación. II MODELOS y HERRAMIENTAS UML. II.2 UML: Modelado de casos de uso PROGRAMACIÓN ORIENTADA A OBJETOS Master de Computación II MODELOS y HERRAMIENTAS UML 1 1 Modelado de casos de uso (I) Un caso de uso es una técnica de modelado usada para describir lo que debería hacer

Más detalles

TEMA 4: SISTEMAS MULTIPROCESADOR (MEMORIA COMPARTIDA) BLOQUE 2 Arquitecturas de computación paralela

TEMA 4: SISTEMAS MULTIPROCESADOR (MEMORIA COMPARTIDA) BLOQUE 2 Arquitecturas de computación paralela TEMA 4: SISTEMAS MULTIPROCESADOR (MEMORIA COMPARTIDA) BLOQUE 2 Arquitecturas de computación paralela 2 CONTENIDOS DE LA UNIDAD 4.4 Diseño de arquitecturas de memoria compartida y compartida-distribuida.

Más detalles

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS

ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS ACTIVIDAD No. 2 REPASO DE REDES INFORMATICAS GRADO 11 Nombre(s) y Apellidos: Jorge Alexander Silva Gómez. Documento: 1095826555 FICHA NÚMERO COLEGIO: Instituto Madre del Buen Concejo FECHA: Abril 23 del

Más detalles

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES.

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES. 1.- a) Explica qué es un bit de información. Qué es el lenguaje binario? Bit es la abreviatura de Binary digit. (Dígito binario). Un bit es un dígito del lenguaje binario que es el lenguaje universal usado

Más detalles

Creado dentro de la línea de sistemas operativos producida por Microsoft Corporation.

Creado dentro de la línea de sistemas operativos producida por Microsoft Corporation. WINDOWS Windows, Es un Sistema Operativo. Creado dentro de la línea de sistemas operativos producida por Microsoft Corporation. Dentro de los tipos de Software es un tipo de software de Sistemas. Windows

Más detalles

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas:

Los mayores cambios se dieron en las décadas de los setenta, atribuidos principalmente a dos causas: SISTEMAS DISTRIBUIDOS DE REDES 1. SISTEMAS DISTRIBUIDOS Introducción y generalidades La computación desde sus inicios ha sufrido muchos cambios, desde los grandes equipos que permitían realizar tareas

Más detalles

Sistemas de almacenamiento informático

Sistemas de almacenamiento informático 1 Sistemas de almacenamiento informático 1. INTRODUCCIÓN: En informática, uno de los elementos principales es el lugar de almacenamiento de datos informáticos. Estos datos, bien en forma de archivos o

Más detalles

CONCURSO COES N 05 / 2014

CONCURSO COES N 05 / 2014 CONCURSO COES N 05 / 2014 RESPUESTAS A LAS CONSULTAS DE LOS POSTORES: ARRENDAMIENTO DE HARDWARE PARA LA BASE DE DATOS ORACLE DEL COES N Referencia Consultas respuesta 01 Punto: 1.5.4 Contenido de la Propuesta

Más detalles

Especificaciones de Hardware, Software y Comunicaciones

Especificaciones de Hardware, Software y Comunicaciones Requisitos técnicos para participantes Especificaciones de Hardware, Software y Comunicaciones Versión Bolsa Nacional de Valores, S.A. Mayo 2014 1 Tabla de Contenido 1. Introducción... 3 2. Glosario...

Más detalles

PCGeek. Descripción del problema

PCGeek. Descripción del problema PCGeek Descripción del problema Ejercicio de Ingeniería del Software I Ejercicio de Ingeniería del Software I Página 1 de 9 1 Introducción... 3 1.1 Organización de la empresa... 3 2 Gestión del almacén...

Más detalles

UNIVERSIDAD DE SALAMANCA

UNIVERSIDAD DE SALAMANCA UNIVERSIDAD DE SALAMANCA FACULTAD DE CIENCIAS INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS Resumen del trabajo práctico realizado para la superación de la asignatura Proyecto Fin de Carrera. TÍTULO SISTEMA

Más detalles

Bechtle Solutions Servicios Profesionales

Bechtle Solutions Servicios Profesionales Soluciones Tecnología Bechtle Solutions Servicios Profesionales Fin del servicio de soporte técnico de Windows Server 2003 No hacer nada puede ser un riesgo BECHTLE Su especialista en informática Ahora

Más detalles

HARDWARE DE UN ORDENADOR. Elementos básicos

HARDWARE DE UN ORDENADOR. Elementos básicos HARDWARE DE UN ORDENADOR Elementos básicos Componentes de un ordenador Hardware: todos los componentes físicos, tanto internos como externos: monitor, teclado, disco duro, memoria, etc. Software: todos

Más detalles

Familia de Windows Server 2003

Familia de Windows Server 2003 Familia de Windows Server 2003 Windows Server 2003 está disponible en cuatro ediciones. Cada edición se ha desarrollado para una función de servidor específica, como se describe en la tabla siguiente:

Más detalles

SERVIDOR WEB PARA ACCESO EN TIEMPO REAL A INFORMACIÓN METEOROLÓGICA DISTRIBUIDA

SERVIDOR WEB PARA ACCESO EN TIEMPO REAL A INFORMACIÓN METEOROLÓGICA DISTRIBUIDA SERVIDOR WEB PARA ACCESO EN TIEMPO REAL A INFORMACIÓN METEOROLÓGICA DISTRIBUIDA E. SÁEZ, M. ORTIZ, F. QUILES, C. MORENO, L. GÓMEZ Área de Arquitectura y Tecnología de Computadores. Departamento de Arquitectura

Más detalles