Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf



Documentos relacionados
CLUSTER FING: ARQUITECTURA Y APLICACIONES

PRIMEROS PASOS EN EL USO DE UN MODELO PGAS EN EL METODO DE LOS ELEMENTOS DE BORDE

CAR.

LOTE 1: PLATAFORMA DE CÓMPUTO DE ALTO RENDIMIENTO PARA CÁLCULO CIENTÍFICO Y PARELELO BASADO EN CLUSTER DE COMPUTADORES.

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

UAEM 2015, Estado de México

Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Palabras Clave:

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL DEPARTAMENTO DE COMPUTACION UNIDAD ZACATENCO

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Facultad de Ingeniería ISSN: Universidad Pedagógica y Tecnológica de Colombia. Colombia

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s!

Dibujo Técnico Industrial. Prof. Aquiles M. Garcia.

DOCTORADO EN INGENIERIA

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

Servicios avanzados de supercomputación para la ciència y la ingeniería

High Performance Computing y Big Data en AWS. +info: ( HPC y Big Data en AWS 16 Abril, / 14

Pruebas y Resultados PRUEBAS Y RESULTADOS AGNI GERMÁN ANDRACA GUTIERREZ

PVFS (Parallel Virtual File System)

Cálculo avanzado: facilidades y rangos de aplicación

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

INFORME TECNICO PREVIO DE EVALUACIÓN DE SOFTWARE N /UIE-PATPAL - FBB

Linux Week PUCP. Computación de Alto Rendimiento en Linux.

El gasto total elegible de la BBPP, Centro de Supercomputación es de ,11. La ayuda FEDER, es el 80%, ,48

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

INFRAESTRUCTURA Y COMUNICACIONES DGA

Servicios de infraestructura: servidores

IES Abyla. Departamento de Informática. Sistemas Operativos

UNIVERSIDAD TECNOLOGICA ECOTEC DIEGO BARRAGAN MATERIA: Sistemas Operativos 1 ENSAYO: Servidores BLADE

CAPAS DEL MODELO OSI (dispositivos de interconexión)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

7. RECURSOS MATERIALES Y SERVICIOS

CAPÍTULO 3: Resultados

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS

Almacenamiento Orientado a Bloques, Flexible, Escalable y Seguro Sobre Redes IP

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters

Tema 1 Introducción. Arquitectura básica y Sistemas Operativos. Fundamentos de Informática

SEMINARIO PRÁCTICO Cómo elegir el sistema de cálculo científico ideal para mi investigación. Raúl Díaz

CONEAU. C omisión Nacional de Evaluación y Acreditación Universitaria MINISTERIO DE EDUCACION, CIENCIA Y TECNOLOGIA

Recursos y servicios HPC en el BIFI

INSTALACIÓN DEL SISTEMA OPERATIVO LINUX DE LA DISTRIBUCIÓN CENTOS

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales *

Arquitectura: Clusters

Introducción a Computación

EQUIPAMIENTO DE INFRAESTRUCTURA SERVIDORES PARA ACTIVA MUTUA Febrero 2011, Revisión: 1.1 PLIEGO DE CONDICIONES TÉCNICAS

GUÍA DOCENTE DE LA ASIGNATURA

Introducción a la Computación

CAPITULO III PROPUESTA DE SOLUCION.

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico.

UNIVERSIDAD DE ANTIQUIA FACULTAD DE CIENCIAS EXACTAS Y NATURALES DEPARTAMENTO DE MATEMÁTICAS. INFRAESTRUCTURA EN COMPUTADORES existente RESUMEN

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Tema 3. Introducción a la configuración de un PC

Capítulo 1 Introducción

Soluciones para entornos HPC

Especificación Técnica

Analizar, desarrollar y programar modelos matemáticos, estadísticos y de simulación.

Tema 10. Introducción a Windows 2008

B. AUTOEVALUACION DEL PROGRAMA DE POSGRADO

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

República de Colombia Municipio de San Antero - Córdoba Oficina de Control Interno NIT

Hacia la Aplicación de la Computación de Alto Desempeño al Entorno Productivo Local

Redes cableadas (Ethernet)

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

FSTIC 06. CAPP Ondas

TEMA: Las Redes. NOMBRE Torres Castillo Ana Cristina. PROFESOR: Genaro Israel Casas Pruneda. MATERIA: Las TICS en la educación.

ENCUENTA - CONTABILIDAD Net. Definiciones generales

ADJUDICACION NIVEL II N AGROBANCO ADQUISICION DE PLATAFORMA SUITE DE SEGURIDAD ACTA DE ABSOLUCIÓN DE CONSULTAS Y OBSERVACIONES

Mosix2: La versión grid de Mosix para Linux-2.6

Arquitecturas de computadoras

Experiencia 2 y 3 : Cableado y Switchs (Documentación)

Beneficios del uso del HPC en la industria

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

Introducción Componentes Básicos Concurrencia y Paralelismo Ejemplos Síntesis Lecturas Recomendadas. Arquitectura de Computadoras

Dpto. Informática y Automática

Biblioteca Universitaria ISSN: X Universidad Nacional Autónoma de México México

CAPÍTULO II. Gráficos Dinámicos.

Nodo Nacional de Bioinformática

ViPoC - una alternativa virtual para el desarrollo de aplicaciones paralelas.

Hunosa (Grupo SEPI). Avda. de Galicia, OVIEDO Asturias, España. T

Intelligent Management Center

Intel XeonPhi Workshop

Producto esperado N 4 Informe puesta en marcha y operación del observatorio.

Computacion de Alto Performance

Esta presentación. Pablo González-Nalda Ismael Etxeberria-Agiriano Isidro Calvo

7.1. Justificación de la adecuación de los medios materiales y servicios disponibles

Luis Caballero Cruz. Ingeniería Técnica Informática de Sistemas. Universidad de Sevilla

Apéndice A: Características de las Redes Locales

Introducción al Cluster


FICHA PÚBLICA DEL PROYECTO

Aplicación de una herramienta colaborativa en el desarrollo comunitario de conocimiento para Computación de Alto Rendimiento

CAPITULO VII PLAN DE IMPLEMENTACION DEL SOFTWARE

CONFIGURACIÓN DEL ADAPTADOR DE RED EN LINUX

Estándares Índice Estándares de Hardware Estándares para la adquisición de Equipos

Curso: Uso de infraestructuras Clúster y Grid para proyectos de e-ciencia. Lanzamiento y Monitoreo de Jobs en Condor. GRID COLOMBIA - RENATA [Ciudad]

Documentación Formal del Hardware, Software y Redes de Datos de la ESPOCH

Transcripción:

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf D Elía, Dalcin, Sarraf, López, Battaglia, Rodríguez, Sonzogni Centro de Investigación de Métodos Computacionales (CIMEC) (new name! ) Univ. Nac. del Litoral (UNL), CONICET, Santa Fe Grupo de Inves. en Mét. Numéricos en Ing. (GIMNI), Univ. Tecn. Nac., Fac. Reg. Santa Fe Dpto de Mecánica Aplicada, Fac. de Ing. Univ. Nac. del Comahue, Neuquén http://www.cimec.org.ar/ VI Latin American Symposium on High Performance Computing HPCLatAm 2013, Mendoza, Argentina Symposium: July 29-30, School: July 22 to July 26, 2013 CAI+D 2009 III-4 2; PIP 112-20111-00978; PICT 2492 10; PIRSES-246977

Los clusters más recientes en el CIMEC Clusters: Coyote, Bora, Aquiles y un 4to en proceso de compra; Todos son de tipo Beowulf, de 64 bits, con arranque disk-less; Ganglia (Coyote y Aquiles): http://200.9.237.240:9000/ganglia Gabinetes tower con ventilación reforzada en estanterías rodantes; UPS (estables si los fan control de las CPU están off); Salas con AA y con ventiladores para circulación forzada.

Cluster Coyote Cluster Coyote (porque nunca alcanzará a Road Runner...): 222 núcleos (33 nodos + 1 servidor); nodos 1-8: Xeon E5420 de 2.5 Ghz (2 x 4 núcleos); nodos 9-24: Xeon W3690 de 3.47 Ghz (1 x 6 núcleos); nodos 25-33: Xeon E5-1660 de 3.30 GHz (1 x 6 núcleos); 1 switch de Gigabit ethernet (1 Gbit/s) con 52 puertos; GNU Linux, distribución Fedora 17; Adquirido con fondos de dos PICT y fondos propios de la UNL (valor aprox USD$80,000).

Cluster Bora Cluster Bora: Disponible desde 2013. Segregado, porque está orientado a software más especializado. Descripción: 48 núcleos; 7 nodos + 1 servidor; Todos son procesadores I7 ( ), de 1 x 6 núcleos; 1 switch de Gigabit ethernet (1 Gbit/s); GNU Linux, distribución Fedora 17; Adquirido con fondos?? (valor aprox USD?).

(Viejo) cluster Aquiles (Viejo) cluster Aquiles disponible desde 2006, compartido por un consorcio entre 4 grupos de investigación de la región: Grupo de Física del Instituto de Desarrollo Tecnológico para la Industria Química (INTEC) Instituto de Matemática Aplicada del Litoral (IMAL) Centro de Meteorología de la Facultad de Ingeniería y Ciencias Hídricas (FICH) de la Universidad Nacional del Litoral (UNL) CIMEC: responsable de su administración. 82 nodos Pentium IV (extended), 3.0 GHz, 2 GB por nodo Red ethernet de 1 GBit/sec, con 2 switches 3COM de 48 puertos c/u, apilados por 1 stacking-cable de 10 Gbit/sec GNU Linux, Fedora 9 (update demorado) Valor al momento de compra USD$100,000.

Técnicas numéricas en BEM con dominios 3D usando programación basada en el modelo PGAS Lenguajes de programación basados en el modelo Partitioned Global Address Space (PGAS), otro modelo de programación paralela en computadoras con memoria distribuida. El modelo PGAS provee comunicación one-side, y es la base de, entre otros, los lenguajes de programación multiparadigma tales como UPC (Unified Parallel C) y Coarray Fortran (CAF o Fortran 2008). e.g. Intel tiene previsto extender los coarrays en sus compiladores Fortran para las Xeon-Phi.

Técnicas numéricas en BEM con dominios 3D usando programación basada en el modelo PGAS PGAS runtimes y librarías instaladas en Coyote: Global-Address Space Networking (GASNet) runtimes Aggregate Remote Memory Copy Interface (ARMCI) Librería Global Arrays (GA) Librería UPCBLAS (para cómputo paralelo matricial en UPC) Leng. de progr. basados en PGAS instalados en Coyote: Unified Parallel C (UPC): compiladores Berkeley UPC y GUPC; Coarray Fortran (o Fortran 2008): compilador OpenUH. Los compiladores Berkeley UPC y Open-UH, así como la librería GA han sido instalados en el cluster Coyote, y estan en etapa experimental. Todos estos fueron construídos sobre las capas GASNet y ARMCI, ademas de la ubicua librería Message Passing Interface (MPI), a través de la distribución OpenMPI.

Boundary Element Method, Galerkin BEM y Hierarchical BEM: versión secuencial Figura: Flujo reptante por BEM, GBEM y HBEM alrededor de geometrías intrincadas o con aristas. hollow cube (izq.), sculpted sphere (cen.) (NETGEN), square knots (der.) Tracción adimensional τ 1 bajo flujo paralelo U = (10 3, 0, 0) m/s.

Boundary Element Method, Galerkin BEM y Hierarchical BEM: versión secuencial RAM memory [GB] 1000 100 10 1 0.1 0.01 BEM HBEM CPU time [h] 100 10 1 0.1 HBEM 0.001 0.0001 1e 05 M 1000 10000 100000 0.01 0.001 M 1000 10000 100000 Figura: Costo computacional en función del número de grados de libertad M, en la esfera unitaria con refinamientos uniformes. Memoria RAM con BEM versus HBEM (izq.), y tiempo de CPU con HBEM usando GMRES (der.).