Supercómputo en la UNISON: el ACARUS. Carmen Heras

Documentos relacionados
CONTENIDO. Conceptos básicos Estadísticas (top 500) Uso para la ciencia Supercómputo en México Supercómputo en la Unison Preguntas?

CONTENIDO. Conceptos básicos Estadísticas (top 500) Uso para la ciencia Supercómputo en México Supercómputo en la Unison

CAR.

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

Carmen Heras, ACARUS, Unison. SSN2008, Principales Resultados

Dr. Moisés Torres Martínez Universidad de Guadalajara Coordinación General de Tecnologías de Información Coordinación de

CENTRO DE COMPUTO DE ALTO RENDIMIENTO

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación

Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD)

Cómputo de Alto Rendimiento: Oportunidades para el Instituto de Ingeniería

SUPERCOMPUTO. Miriam B. Torres-Cedillo

Anexo Técnico Partida 2

HPCDay Córdoba, 2013

Interés Nacional por Grids y Supercómputo, Memorias del Reciente: Simposio de Supercómputo, Noroeste 2006

Equipamiento disponible

CLCAR, Panama R.P. Michael P. Lasen NVIDIA Professional Solutions Group Latin America

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)

TIER 0 TIER 1 TIER 2

Supercomputador LUSITANIA

Arquitecturas de Altas Prestaciones y Supercomputación

MONTERREY CONVENTION CENTER, PABELLON M MARZO. Monterrey, NL

CLUSTER HÍBRIDO DE SUPERCÓMPUTO XIUHCOATL

Infraestructura de vanguardia Recursos humanos altamente especializados

Anexo Técnico Partida 3

Centro de Innovación y Desarrollo Tecnológico en Cómputo (CIDETEC)

GRADO EN INGENIERÍA DE COMPUTADORES

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Breve historia de la creación del laboratorio de supercómputo y visualización en paralelo.

Recursos y servicios HPC en el BIFI

Nodos de Cálculo i7/i9. Informática Personal. Servidores para cálculo científico. Clústers de computación. Almacenamiento de Datos.

High Performance Computing y Big Data en AWS. +info: ( HPC y Big Data en AWS 16 Abril, / 14

Requisitos Técnicos de actualización de Cluster Heterogéneo

Servicios del centro de datos. Esther Lugo Rojas

RECURSOS SUPERCOMPUTACIÓN BSC- CNS RES PRACE

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

PLIEGO DE PRESCRIPCIONES TÉCNICAS CONTRATO DE SUMINISTRO

Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17

Formación de Recursos Humanos a nivel de Operación de GRIDS

Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.

Tema 3 GPUs: Introducción

Soluciones para entornos HPC

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades

UNIVERSIDAD INDUSTRIAL DE SANTANDER DIVISIÓN DE SERVICIOS DE INFORMACIÓN PLIEGO DE CONDICIONES DEFINITIVOS

Uso eficiente de tarjetas gráficas para la visualización volumétrica de campos escalares

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Dr. Enrique Vázquez Semadeni. Centro de Radioastronomía y Astrofísica, UNAM, Morelia

Anexo Técnico Partida 1

Linux Week PUCP. Computación de Alto Rendimiento en Linux.

Comité Evaluador. Secondary Reviewers

1. Productos a entregar

Taller de Programación Paralela

Montserrat González Ferreiro RES management engineer

Programación Paralela

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL LABORATORIO DE TECNOLOGIAS DE INFORMACION UNIDAD TAMAULIPAS

Technical Report TR01-SARADL-System infraestructure

Herramientas computacionales para la generación de escenarios climáticos

CLUSTER FING: ARQUITECTURA Y APLICACIONES

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández

UNIVERSIDAD DE ANTIOQUIA FACULTAD DE CIENCIAS EXACTAS Y NATURALES MEDELLÍN - COLOMBIA. Evaluaciones 4 otros total: 64 horas de clase

Márquez Sandoval Limitada. Presentación Empresa

LA RED INTERNET 2 EN EL EXPERIMENTO DE ALTAS ENERGIAS

Modelos de computadores paralelos

HP CAST IBÉRICA 2012

Tipos de computadoras

Apoyando a las Investigaciones de la Universidad de Guadalajara a Escala Nacional e Internacional por Medio del uso de Supercómputo

ACG29/5: Vinculación de asignaturas a áreas de conocimiento: Grado en Física

GridCICESE. Avances y Perspectivas. S.Castañeda A., J.L. Briseño C., Raul Hazas, Julian Delgado Sylvia Camacho. Miembro

Cálculo avanzado: facilidades y rangos de aplicación

Computo de Alto Rendimiento y Alta Disponibilidad México (CARMEX) Dr Mariano Gamboa Zúñiga Conferencia Latinoamericana 2009

SISTEMA NACIONAL DE COMPUTACIÓN DE ALTO DESEMPEÑO SNCAD

LICENCIATURA EN CIENCIAS COMPUTACIONALES. Este programa educativo se ofrece en las siguientes sedes académicas de la UABC:

EL CLUSTER HIBRIDO DE Supercómputo del Cinvestav

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Secretaría de Administración LINEAMIENTOS DE CÓMPUTO DE USUARIO FINAL

Municipalidad Provincial de Huaraz. Plan Operativo Informático 2017

2. UNION TEMPORAL SED INTERNACIONAL - HARDWARE ASESORIAS Y SOFTWARE. HP DX 5150 MINITORRE 1. DELL COLOMBIA INC.

Estado Actual: Servicios TI para Apoyo a la Investigación. Diciembre de 2016

Dirección de Gobierno Electrónico Subdirección de Infraestructura Tecnológica Departamento de Normatividad Informática Estándares de Equipo de Cómputo

Recursos de Supercomputación en BSC-CNS, RES & PRACE

UNIVERSIDAD TECNOLOGICA NACIONAL FACULTAD REGIONAL ROSARIO ACREDITACION DE CARRERAS DE INGENIERIA CONVOCATORIA VOLUNTARIA 2003

Graduado/a en Ingeniería Informática. (802) Arquitecturas Virtuales

Lukas Nellen ICN-UNAM

Modelación Matemática y Computacional en Ciencias e Ingenierías

Arquitecturas GPU v. 2013

Proyecto Laboratorio de Cómputo

Licenciado en Ciencias Computacionales Plan

Seminario de Informática. UNIDAD 1: Introducción a la Informática

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

Computadoras de alto rendimiento

ADENDA No. 4 PLIEGO DE CONDICIONES

Balance Dinámico de Carga en Super-Cómputo

Javier Pérez Mato µp para Comunicaciones Curso 2008/09 ETSIT - ULPGC

Quienes somos Misión Visión

Investigación, Resultados Y beneficios. Simplificación de HPC en la educación superior e instituciones de investigación. Información general

Proceso: Planeación Institucional

ALIADOS ESTRATÉGICOS

Transcripción:

Supercómputo en la UNISON: el ACARUS Carmen Heras

Agenda 1. Conceptos básicos y estadísticas 2. Tendencias: uso de aceleradores, IA y computación cuántica 3. Soporte para la ciencia 4. Infraestructuras de CAR en México 5. Supercómputo en la UNISON: el ACARUS Servicios/Funciones Usuarios Actividades académicas Vinculación y colaboración Proyectos Infraestructura: instalaciones, hardware y software

Qué es el Supercómputo? El supercómputo es la tecnología informática más avanzada de cálculo numérico. Permite al investigador llevar a cabo, con certeza y velocidad, miles de billones de operaciones de punto flotante por segundo para estudiar problemas de gran magnitud. Nombre Flops megaflops 10 6 gigaflops 10 9 teraflops 10 12 petaflops 10 15 exaflops 10 18 zettaflops 10 21 yottaflops 10 24 FLOPS= FLoating point Operations Per Second

Qué es el Supercómputo? Facilita el estudio de fenómenos y condiciones que tan sólo hace menos 30 años eran imposible. Sus aplicaciones abrieron en todo el mundo, nuevas líneas de investigación científica en áreas como ingeniería, medicina, geofísica, geografía, astronomía, química, ciencias de la atmósfera, ciencias nucleares, entre otras.

Cómo explicar estos fenómenos?

Organización TOP500 Noviembre 2017

OrganizaciónTOP500

OrganizaciónTOP500 MPP: Massively Parallel Processing

OrganizaciónTOP500

OrganizaciónTOP500

OrganizaciónTOP500

Agenda 1. Conceptos básicos y estadísticas 2. Tendencias: uso de aceleradores, IA y computación cuántica 3. Soporte para la ciencia 4. Infraestructuras de CAR en México 5. Supercómputo en la UNISON: el ACARUS Servicios/Funciones Usuarios Actividades académicas Vinculación y colaboración Proyectos Infraestructura: instalaciones, hardware y software

Tendencias: uso de aceleradores, IA y computación cuántica Aceleradores: Aumentan la capacidad de cálculo Mayor densidad en el hardware Menor consumo de energía Menor costo GPGPU de acelerador a procesador

Organización TOP500 Noviembre 2017

Tendencias: uso de aceleradores, IA y computación cuántica Inteligencia Artificial: Desarrollo de Big Data Reconocimiento de patrones Seguridad nacional Robótica - autómatas Sistemas expertos

Tendencias: uso de aceleradores, IA y computación cuántica Computación cuántica: Paradigma de computación no clásica Qubits, no bits Nuevas puertas lógicas = Nuevos algortimos

Agenda 1. Conceptos básicos y estadísticas 2. Tendencias: uso de aceleradores, IA y computación cuántica 3. Soporte para la ciencia 4. Infraestructuras de CAR en México 5. Supercómputo en la UNISON: el ACARUS Servicios/Funciones Usuarios Actividades académicas Vinculación y colaboración Proyectos Infraestructura: instalaciones, hardware y software

Soporte para la ciencia: Titan / ORNL #1 11/2012 #3 11/2016 #5 11/2017

Titan / ORNL

Soporte para la ciencia: Titan / ORNL CODE DESCRIPTION LAMMPS is a molecular dynamics general statistical mechanics based code applicable to bioenergy problems. http://lammps.sandia.gov/ WL-LSMS. Wang-Landau (WL) - Linear Scaling Multiple Scattering (LSMS). A first principles density functional theory code (local density approximation) used to study magnetic materials S3D. Direct numerical simulation of compressible, reacting flows for combustion science CAM-SE. Community Atmosphere Model - Spectral Elements. http://earthsystemcog.org/projects/ dcmip-2012/cam-se Programming model for Example science problem acceleration Libraries Performance information Speedup is 1X to 7.4X on 900 nodes, comparing XK7 to XE6. The performance Course-grained molecular dynamics simulation of bulk heterojunction OpenCL or CUDA polymer blend films used, e.g., within organic photovoltaic devices. Simulation of the CUDA or CUDA and magnetic phase transition Libraries in nickel. Temporal jet simulation of dimethyl-ether combustion High-resolution atmospheric climate simulation using CAM5 physics and the MOZART chemistry package. DENOVO is a three-dimensional, massively parallel, deterministic radiation transport code. It is capable Reactor eigenvalue of solving both shielding and problem criticality problems on highperformance computing platforms. OpenACC CUDA Fortran CUDA GPU: CULA, LibSciACC, cublas CPU: BLAS, LAPACK variation is strongly dependent upon the number of atoms per node. This algorithm is mixed precision on GPU, double precision on CPU. XK7 vs XE6 speedup is 3.5X. Benchmark runs from 321 (321 WL walkers, 1024 atoms.) XK7 vs XE6 speedup is 2X. XK7 CPU-only vs. XK7 (CPU+GPU) for the Denovo Sweep part only, on nearly 18K nodes. POINT OF CONTACT Mike Brown, ORNL Markus Eisenbach, ORNL Ramanan Sankaran, ORNL Matt Norman, ORNL Tom Evans (ORNL), Wayne Joubert (ORNL)

Soporte para la ciencia: Titan / ORNL High-Fidelity Simulations for Clean and Efficient Combustion of Alternative Fuels. Jacqueline Chen, Sandia National Laboratories: 30,000,000 hours (1,250,000 días = 3,424.66 años) Clean and Efficient Coal Gasifier Designs using Large-Scale Simulations. Madhava Syamlal, National Energy Technology Laboratory: 13,000,000 hours Landmark Direct Numerical Simulations of Separation and Transition for Aerospace- Relevant Wall-Bounded Shear Flows. Hermann Fasel, University of Arizona: 500,000 hours Petascale Simulation of Nan-Electronic Devices. Gerhard Klimeck, Purdue University: 5,000,000 hours. Propulsor Analyses for a Greener, High Bypass Ratio, Aircraft Gas Turbine Engine. Robert Maleki, Pratt & Whitney: 1,500,000 hours.

Soporte para la ciencia: Titan / ORNL En el caso particular de la astrofísica un grupo de investigadores del ORNL dirigidos por Anthony Mezzacappa desarrollan el primer modelo tridimensional (3D) para estudiar con detalle la explosión de supernova producida por el colapso del núcleo de una estrella masiva poniendo énfasis en el caso particular de la Supernova 1987.

Soporte para la ciencia: Titan / ORNL Proyecto Chimera: código hidrodinámico (MVH3/VH1); Código de transporte de neutrinos (MGFLDTRANS); Código cinético nuclear (XNET)

Soporte para la ciencia: Titan / ORNL El proyecto Chimera solicitó 60 millones de horas de procesador, es decir, más de 6 mil 800 años de tiempo de CPU. En otras palabras, una computadora con un procesador de un núcleo necesitaría casi 7 mil años para consumir este tiempo de procesamiento. Cómputo Paralelo: 1,000 núcleos: 7 años 10,000 núcleos: 9 meses

ExaScale #10 TOP500 11/2016 Nombre Flops megaflops 10 6 gigaflops 10 9 teraflops 10 12 petaflops 10 15 exaflops 10 18 zettaflops 10 21 yottaflops 10 24 High Performance Computing at Los Alamos National Laboratory - Cray

Agenda 1. Conceptos básicos y estadísticas 2. Tendencias: uso de aceleradores, IA y computación cuántica 3. Soporte para la ciencia 4. Infraestructuras de CAR en México 5. Supercómputo en la UNISON: el ACARUS Servicios/Funciones Usuarios Actividades académicas Vinculación y colaboración Proyectos Infraestructura: instalaciones, hardware y software

Infraestructuras de CAR en México #370 11/2015

Infraestructuras de CAR en México Posición Institución Equipo TFLOPS 1 CINVESTAV Abacus-SGI 429/277.5 2 BUAP-LNS Cuetlaxcoapan-Fujitsu 208 3 UAM-Iztapalapa - LSV Yoltla-DELL 152 4 UNAM-DGTIC Miztli - HP 118 5 IPICYT-CNS Thubat-Kaal - IBM 107 6 UNAM-DGTIC Bakliz-HP 80 7 UNISON-ACARUS Ocotillo - Dell 39.3/31 8 CICESE Knik2-Supermicro/Lufac 37 9 CINVESTAV Xiucoatl-Supermicro/Lufac 25 10 UAM-Iztapalapa - LSV Aitzaloa-Dell 18 #500 = 206:11/2015, 286:06/2016, 349:11/2016, 432:06/2017 y 548:11/2017

Infraestructuras de CAR en México Cuetlaxcoapan FUJITSU LNS-BUAP Abacus SGI CINVESTAV

Infraestructuras de CAR en México Yoltla - DELL UAM-I - Supercómputo Thubat-Kaal IBM CNS-IPICYT

Infraestructuras de CAR en México Ocotillo - DELL ACARUS-UNISON

Agenda 1. Conceptos básicos y estadísticas 2. Tendencias: uso de aceleradores e IA 3. Soporte para la ciencia 4. Infraestructuras de CAR en México 5. Supercómputo en la UNISON: el ACARUS Servicios/Funciones Usuarios Actividades académicas Vinculación y colaboración Proyectos Infraestructura: instalaciones, hardware y software

ACARUS El Area de Cómputo de Alto Rendimiento de la Universidad de Sonora, se creó en el 2001 con la finalidad de apoyar las actividades de los cuerpos académicos. La importancia de esta área ha radicado sobre dos ejes: 1. Contar con equipamiento que permita realizar investigación de frontera. 1. Contar con los programas de cómputo científico que son considerado en el medio como estándares.

Servicios/Funciones Proporcionar una infraestructura de supercómputo a los usuarios que los requieran Impulsar el desarrollo tecnológicos de alto rendimiento ProDeTAR Actualización de Infraestructura Licenciamiento de Software Científico Promover la utilización del ACARUS Administrar el hardware y software Brindar servicio de información y asesoría a los usuarios

Servicios/Funciones Realizar la planeación y organización de cursos de capacitación ProCCAR Programa de capacitación continua Diplomado en Supercómputo Proyectos de servicio social Ofrecer soporte técnico especializado Atender a visitas técnicas y académicas Diseñar y mantener la página del ACARUS Mantener lazos de colaboración interinstitucional

Usuarios Usuarios permanentes que requieren resolver problemas complejos con el apoyo de equipo de Cómputo de Alto rendimiento.

Actividades académicas

Actividades académicas

Vinculación/Colaboración Red Mexicana de Supercómputo

Proyecto: Ocotillo Proyecto: Actualización de la infraestructura de cómputo de alto rendimiento de la Universidad de Sonora Programa: Apoyo al Fortalecimiento y Desarrollo de la Infraestructura Científica y Tecnológica del CONACYT

Proyecto: Ocotillo Reto: implementación de clúster de alto rendimiento para producción científica

1 Nodo maestro Proyecto: Ocotillo Solución integral: 8 Nodos de cálculo CPU de 64 cores 18 Nodos de cálculo CPU de 40 cores 2 Nodos de visualización científica 1 Nodo GP/GPU 8 tarjetas Tesla M2070Q 3584 cores 1 Sistema de almacenamiento 50tb Red infiniband QDR Red de administración ethernet gigabit 1 Sistema de monitoreo KVM UPS Rack

Proyecto: Ocotillo Nodos: maestro y de cálculo CPU: Nodos de procesamiento CPU Nodo Maestro SWITCH INFINIBAND 40 GBPS 2 INTEL XEON E5680, 3.3 GHZ = 12 CORES 24 GB RAM 1.5 TB 15K RPM SCSI 6GBPS SWITCH ETHERNET 10 GBPS 4 X 8 AMD OPTERON 6282SE, 2.6 GHZ = 128 CORES 256 GB RAM 8 TB 7.2K RPM SAS 6GBPS 64 cores x 8 servidores x 4 flops x 2.6 GHz = 5,324.8 GFlops

Proyecto: Ocotillo Nodos de visualización científica: Nodo Maestro SWITCH ETHERNET 10 GBPS Nodo de Visualización 2 INTEL XEON E5680, 3.3 GHZ = 12 CORES 24 GB RAM 1.5 TB 15K RPM SCSI 6GBPS 2 X 1 XEON E5620, 2.4 GHZ = 4 CORES 128 GB RAM NVIDIA QUADRO 5000, 2.5 GB RAM = 352 CORES 600 GB 10K RPM SCSI 6GBPS 718 GFLOPS / GPU

Proyecto: Ocotillo Nodo GP/GPU: Nodos de procesamiento CPU Nodos de procesamiento GPU 8 NVIDIA TESLA M2070Q, 1.55 GHZ, 448 CORES = 3584 CORES 6 GB RAM DEDICADA / GPU 8 GPGPUs x 1,024 GFLOPS = 8,192 GFLOPS

Proyecto: Ocotillo Almacenamiento paralelo: Nodos de control Arreglos de discos 2 X 2 XEON E5620, 2.4 GHZ = 8 CORES 48 GB RAM 600 GB 15K RPM SCSI 6GBPS 24 TB 7.2K RPM SAS 6GBPS 2 X 24 TB 7.2K RPM SAS 6GBPS

Proyecto: Ocotillo UPS, cableado y rack: 18 KVA BANCO DE BATERIAS 2X 42 U 16 PUERTOS CONSOLA

Proyecto: Ocotillo Resultado de la implementación:

Proyecto: Ocotillo Equipo de apoyo: laboratorio de supercomputo y visualización de la UAM-I, GRACIAS!!!

Proyecto: Ocotillo Equipo de administración ideal: 1 ADMINISTRADOR DE PROYECTO 1 ADMINISTRADOR TECNICO 2 ADMINISTRADOR DE SOLUCIONES SOPORTE TECNICO: 1 CALCULO CPU 1 CALCULO GPU 1 VISUALIZACION CIENTIFICA 1 LUSTRE 1 RED INFINIBAND/ETHERNET

Infraestructura disponible Sala de capacitación

Hardware Clúster Científico Ocotillo de 29 nodos Clúster Experimental de 16 nodos Equipo de Video-Conferencia Equipo de Proyección Unidades de Almacenamiento Externo Equipos Perifericos

Gracias por su atención! Carmen Heras carmen.heras@unison.mx