CONTENIDO. Conceptos básicos Estadísticas (top 500) Uso para la ciencia Supercómputo en México Supercómputo en la Unison



Documentos relacionados
Supercómputo en la UNISON: el ACARUS. Carmen Heras

CAR.

CONTENIDO. Conceptos básicos Estadísticas (top 500) Uso para la ciencia Supercómputo en México Supercómputo en la Unison Preguntas?

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Soluciones para entornos HPC

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s!

Arquitecturas GPU v. 2013

Recursos y servicios HPC en el BIFI

CLUSTER FING: ARQUITECTURA Y APLICACIONES

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

RECURSOS SUPERCOMPUTACIÓN BSC- CNS RES PRACE

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades

Linux Week PUCP. Computación de Alto Rendimiento en Linux.

Equipamiento disponible

High Performance Computing y Big Data en AWS. +info: ( HPC y Big Data en AWS 16 Abril, / 14

Infraestructura de vanguardia Recursos humanos altamente especializados

SEMINARIO PRÁCTICO Cómo elegir el sistema de cálculo científico ideal para mi investigación. Raúl Díaz

CLUSTER HÍBRIDO DE SUPERCÓMPUTO XIUHCOATL

LOTE 1: PLATAFORMA DE CÓMPUTO DE ALTO RENDIMIENTO PARA CÁLCULO CIENTÍFICO Y PARELELO BASADO EN CLUSTER DE COMPUTADORES.

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

HPCDay Córdoba, 2013

TRES PREGUNTAS SOBRE El Supercomputador ALTAMIRA Abierto a la Innovación

Computacion de Alto Performance

UAEM 2015, Estado de México

Cálculo avanzado: facilidades y rangos de aplicación

El gasto total elegible de la BBPP, Centro de Supercomputación es de ,11. La ayuda FEDER, es el 80%, ,48

High Performance Computing and Architectures Group

Organización del Centro de Cálculo

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Javier Pérez Mato µp para Comunicaciones Curso 2008/09 ETSIT - ULPGC

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

DEPARTAMENTO DE INGENIERÍA QUÍMICA Y METALURGIA PLAN DE TRABAJO JESUS LEONEL SERVIN RODRÍGUEZ

Carmen Heras, ACARUS, Unison. SSN2008, Principales Resultados

Montserrat González Ferreiro RES management engineer

Figura 1.4. Elementos que integran a la Tecnología de Información.

Facultad de Ingeniería ISSN: Universidad Pedagógica y Tecnológica de Colombia. Colombia

Propuesta de Servicios De Infraestructura en Centro de Datos y Servicios de Administración Servidor Dedicado

Talleres CLCAR. CUDA para principiantes. Título. Mónica Liliana Hernández Ariza, SC3UIS-CRC NVIDIA Research Center

Ingeniero en Informática

Beneficios del uso del HPC en la industria

Memoria de las mejoras, tanto técnicas y de plazos de entrega como de mantenimiento, que la empresa haya decidido ofrecer.

PLIEGO DE CONDICIONES TÉCNICAS

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf

Modelo de aplicaciones CUDA

Las TIC y la Supercomputacion en la Universitat de Valencia

DESARROLLO DE SOFTWARE MODULAR, ABIERTO Y COLABORATIVO PARA SIMULACIÓN DE MÁQUINAS Y MECANISMOS

COMPUTACIÓN DE ELEVADAS PRESTACIONES: INFRAESTRUCTURAS, CASOS DE ÉXITO Y APLICACIONES PRÁCTICAS

Clúster Máquinas de Computación Cálculo científico

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1.

Nodo Nacional de Bioinformática

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

CONCURSO COES N 05 / 2014

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters

Servicios avanzados de supercomputación para la ciència y la ingeniería

GANETEC SOLUTIONS HPC Farmacéuticas

AULA DE ALTA TECNOLOGIA. Diplomado. ORACLE 10g

HUBzero Ciberinfraestructura para Difusión, Divulgación y Colaboración

HP CAST IBÉRICA 2012

GUÍA DOCENTE DE LA ASIGNATURA

Sistemas Multiprocesador de Memoria Compartida Comerciales

FSTIC 06. CAPP Ondas

Pruebas y Resultados PRUEBAS Y RESULTADOS AGNI GERMÁN ANDRACA GUTIERREZ

Información General del Servicio de Hosting

TIER 0 TIER 1 TIER 2

Grids. Departamento de Supercómputo - DGSCA UNAM

Descripción de los Servicios Oracle contemplados en el Instrumento de Agregación de Demanda

EL CLUSTER HIBRIDO DE Supercómputo del Cinvestav

Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Palabras Clave:

PPTSU DESCRIPCIÓN Y CARACTERÍSTICAS TÉCNICAS:

Fernando Blanco Conselleiro de Innovación e Industria Xunta de Galicia

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL DEPARTAMENTO DE COMPUTACION UNIDAD ZACATENCO

Linux Clusters Gilberto Diaz Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela

CPU. Unidad central de procesamiento

Preguntas y respuestas No 2 Publicación Con respecto al requerimiento 2.1.d de la solución requerida (Página 16):

Clusters de Alto Rendimiento

Mendieta. Carlos Bederián IFEG-CONICET, FaMAF-UNC WHPC13

Objetivo(s) general(es) de la asignatura. Programa de Asignatura. Historia del programa. Relación con otras asignaturas

UNIDAD TECNICA DE SERVICIOS DE INFORMATICA

CAPITULO 5 DESARROLLO

Miles de millones de instrucciones de coma flotante por segundo (FLOPS). Hasta miles, en entorno de redes amplias.

INFRAESTRUCTURA. (Biología, Física, Matemáticas) Facultad de Ciencias

Servidores blade. AGUILERA FERNANDO [Escribir el nombre de la compañía] 14/04/2011

Documentación Formal del Hardware, Software y Redes de Datos de la ESPOCH

CURSO. Optimización Avanzada de Aplicaciones JAVA en Servidores LINUX. (10 Horas)

Soluciones Tecnológicas

Arquitectura: Clusters

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales *

ÁREA DE NUEVAS TECNOLOGÍAS Informática

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL LABORATORIO DE TECNOLOGIAS DE INFORMACION UNIDAD TAMAULIPAS

Requisitos Técnicos de Cluster Heterogéneo.

ovirt: Administración básica

NEGOCIO. Industria de TI

UNIVERSIDAD DE ANTIQUIA FACULTAD DE CIENCIAS EXACTAS Y NATURALES DEPARTAMENTO DE MATEMÁTICAS. INFRAESTRUCTURA EN COMPUTADORES existente RESUMEN

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

PROYECTO PLATAFORMA ERP Business Case Laboratorios. Main Memory, S.A. Datos de contacto

Transcripción:

CONTENIDO Conceptos básicos Estadísticas (top 500) Uso para la ciencia Supercómputo en México Supercómputo en la Unison

Qué es el Supercómputo? Es la tecnología informática más avanzada de cálculo numérico. Permite al investigador llevar a cabo, con certeza y velocidad, billones de operaciones de punto flotante por segundo para estudiar problemas de gran magnitud. Nombre Flops megaflops 10 6 gigaflops 10 9 teraflops 10 12 petaflops 10 15 exaflops 10 18 zettaflops 10 21 yottaflops 10 24 FLOPS= FLoating point Operations Per Second

Qué es el Supercómputo? Facilita el estudio de fenómenos y condiciones que tan sólo hace menos 30 años eran imposible. Sus aplicaciones abrieron en todo el mundo, nuevas líneas de investigación científica en áreas como ingeniería, medicina, geofísica, geografía, astronomía, química, ciencias de la atmósfera y ciencias nucleares, entre otras.

Cómo explicar estos fenómenos?

Organización TOP500

OrganizaciónTOP500

OrganizaciónTOP500 MPP: Massively Parallel Processing

OrganizaciónTOP500

OrganizaciónTOP500

OrganizaciónTOP500

OrganizaciónTOP500

TITAN

TITAN CODE DESCRIPTION LAMMPS is a molecular dynamics general statistical mechanics based code applicable to bioenergy problems. http://lammps.sandia.gov/ WL-LSMS. Wang-Landau (WL) - Linear Scaling Multiple Scattering (LSMS). A first principles density functional theory code (local density approximation) used to study magnetic materials S3D. Direct numerical simulation of compressible, reacting flows for combustion science CAM-SE. Community Atmosphere Model - Spectral Elements. http://earthsystemcog.org/projects/dcmip- 2012/cam-se Example science problem Course-grained molecular dynamics simulation of bulk heterojunction polymer blend films used, e.g., within organic photovoltaic devices. Programming model for acceleration Libraries Performance information POINT OF CONTACT OpenCL or CUDA Simulation of the magnetic phase CUDA or CUDA and transition in nickel. Libraries Temporal jet simulation of dimethyl-ether combustion High-resolution atmospheric climate simulation using CAM5 physics and the MOZART chemistry package. DENOVO is a three-dimensional, massively parallel, deterministic radiation transport code. It is capable of solving both shielding and Reactor eigenvalue problem criticality problems on high-performance computing platforms. Speedup is 1X to 7.4X on 900 nodes, comparing XK7 to XE6. The performance variation is strongly dependent upon the number of atoms per node. This algorithm is mixed precision on GPU, double precision on CPU. GPU: CULA, XK7 vs XE6 speedup is 3.5X. LibSciACC, Benchmark runs from 321 (321 cublas CPU: WL walkers, 1024 atoms.) BLAS, LAPACK OpenACC XK7 vs XE6 speedup is 2X. CUDA Fortran CUDA XK7 CPU-only vs. XK7 (CPU+GPU) for the Denovo Sweep part only, on nearly 18K nodes. Mike Brown, ORNL Markus Eisenbach, ORNL Ramanan Sankaran, ORNL Matt Norman, ORNL Tom Evans (ORNL), Wayne Joubert (ORNL)

Jaguar National Center for Computational Sciences (NCCS) Laboratorio Nacional Oak Ridge USA

Jaguar 18 mil 688 nodos de cálculo dual hex-core AMD Opteron, 224 mil 256 núcleos. 300 TB de memoria RAM. 3. 2 mil 300 billones de operaciones de punto flotante/s (2.3 petaflop/s)

Jaguar Engineering Projects High-Fidelity Simulations for Clean and Efficient Combustion of Alternative Fuels. Jacqueline Chen, Sandia National Laboratories: 30,000,000 hours Clean and Efficient Coal Gasifier Designs using Large-Scale Simulations. Madhava Syamlal, National Energy Technology Laboratory: 13,000,000 hours Landmark Direct Numerical Simulations of Separation and Transition for Aerospace- Relevant Wall-Bounded Shear Flows. Hermann Fasel, University of Arizona: 500,000 hours Petascale Simulation of Nan-Electronic Devices. Gerhard Klimeck, Purdue University: 5,000,000 hours. Propulsor Analyses for a Greener, High Bypass Ratio, Aircraft Gas Turbine Engine. Robert Maleki, Pratt & Whitney: 1,500,000 hours.

Jaguar En el caso particular de la astrofísica un grupo de investigadores del ORNL dirigidos por Anthony Mezzacappa desarrollan el primer modelo tridimensional (3D) para estudiar con detalle la explosión de supernova producida por el colapso del núcleo de una estrella masiva poniendo énfasis en el caso particular de la Supernova 1987.

Jaguar Proyecto Chimera: código hidrodinámico (MVH3/VH1); Código de transporte de neutrinos (MGFLDTRANS); Código cinético nuclear (XNET)

Jaguar El proyecto Chimera solicitó 60 millones de horas de procesador, es decir, más de 6 mil 800 años de tiempo de CPU. En otras palabras, una computadora con un procesador de un núcleo necesitaría casi 7 mil años para consumir este tiempo de procesamiento. Cómputo Paralelo: 1,000 núcleos: 7 años 10,000 núcleos: 9 meses

Infraestructuras de CAR en México 348

Infraestructuras de CAR en México Posición Institución Equipo No. cores TFLOPS 1 IPICYT-CNS Thubat-Kaal / IBM 2640 107 2 UNAM-DGTIC 348 KANBALAM - HP 5616 92.3 3 CINVESTAV XIUCOATL 45350 24.9 4 UAM-Iztapalapa - LSV Cluster Aitzaloa 2160 18.4 5 UNISON-ACARUS Ocotillo - Dell 512 14.9 6 IPICYT-CNS Cluster IBM E-1350 1350 4.7 7 INMENGEN IBM 960 2 8 UNISON-ACARUS Mezquite 142 950G 9 IPICYT-CNS Cray XD1 216 950G 10 CINVESTAV Cluster Xserve G5 128 480G

EL ACARUS El Area de Cómputo de Alto Rendimiento de la Universidad de Sonora, se creó en el 2001 con la finalidad de apoyar las actividades de los cuerpos académicos. La importancia de esta área ha radicado sobre dos ejes: Contar con equipamiento que permita realizar investigación de frontera. Contar con los programas de cómputo científico que son considerado en el medio como estándares.

SERVICIOS / FUNCIONES Proporcionar una infraestructura de supercómputo a los usuarios que los requieran Impulsar el desarrollo tecnológicos de alto rendimiento ProDeTAR Actualización de Infraestructura Licenciamiento de Software Científico Promover la utilización del ACARUS Administrar el hardware y software Brindar servicio de información y asesoría a los usuarios de cómputo de alto rendimiento

SERVICIOS / FUNCIONES Realizar la planeación y organización de cursos de capacitación ProCCAR Programa de capacitación continua Diplomado en Supercómputo Proyectos de servicio social Ofrecer soporte técnico especializado Atender a visitas técnicas y académicas Diseñar y mantener la página de Internet del ACARUS Mantener lazos de colaboración interinstitucional

ACTIVIDADES ACADEMICAS

ACTIVIDADES ACADEMICAS

ACTIVIDADES ACADEMICAS

ASOCIACION MEXICANA DE COMPUTO AVANZADO AMCAV

INFRAESTRUCTURA DISPONIBLE Cluster Científico de 512 cores CPU, 8 GPUs: OCOTILLO Cluster Científico de 72 nodos duales: MEZQUITE Cluster Experimental de 16 nodos: CHOYA PC s para capacitación Equipos de Video-Conferencia Equipo de Proyección Unidades de Almacenamiento Externo Equipos Perifericos

SALA DE CAPACITACION

INFRAESTRUCTURA-SOFTWARE SO: Unix y Linux Simulación e imagenes: IDL y Matlab Lenguaje Simbólico: Mathematica Procesamiento Intensivo: Fortran, C y Gaussian98 SIG : Idrisi, Cartalinx y Arcinfo Estadística: SAS y EQS Librerías: BLAS, LAPACK y ATLAS Todos ellos considerados de lo mejor disponible en su área y de gran prestigio tanto en la academia como en oficinas de gobierno y empresas en el mundo.

OCOTILLO Proyecto: Actualización de la infraestructura de cómputo de alto rendimiento de la Universidad de Sonora Programa: Apoyo al Fortalecimiento y Desarrollo de la Infraestructura Científica y Tecnológica del CONACYT

RETO: IMPLEMENTACIÓN DE CLÚSTER DE ALTO RENDIMIENTO PARA PRODUCCIÓN CIENTÍFICA H P C U N I S O N

SOLUCIÓN INTEGRAL 1 NODO MAESTRO 8 NODOS DE CALCULO CPU 2 NODOS DE VISUALIZACION CIENTIFICA 1 NODO CPU/GPU 1 SISTEMA DE ALMACENAMIENTO 50TB RED INFINIBAND QDR RED DE ADMINISTRACION ETHERNET GIGABIT 1 SISTEMA DE MONITOREO KVM UPS RACK

NODOS: MAESTRO Y DE CÁLCULO CPU Nodos de procesamiento CPU Nodo Maestro SWITCH INFINIBAND 40 GBPS 2 INTEL XEON E5680, 3.3 GHZ = 12 CORES 24 GB RAM 1.5 TB 15K RPM SCSI 6GBPS SWITCH ETHERNET 10 GBPS 4 X 8 AMD OPTERON 6282SE, 2.6 GHZ = 128 CORES 256 GB RAM 8 TB 7.2K RPM SAS 6GBPS 64 cores x 8 servidores x 4 flops x 2.6 GHz = 5,324.8 GFlops H P C U N I S O N

NODOS DE VISUALIZACIÓN CIENTÍFICA Nodo Maestro SWITCH ETHERNET 10 GBPS Nodo de Visualización 2 INTEL XEON E5680, 3.3 GHZ = 12 CORES 24 GB RAM 1.5 TB 15K RPM SCSI 6GBPS 2 X 1 XEON E5620, 2.4 GHZ = 4 CORES 128 GB RAM NVIDIA QUADRO 5000, 2.5 GB RAM = 352 CORES 600 GB 10K RPM SCSI 6GBPS 718 GFLOPS / GPU H P C U N I S O N

NODO GP/GPU Nodos de procesamiento CPU Nodos de procesamiento GPU 8 NVIDIA TESLA M2070Q, 1.55 GHZ, 448 CORES = 3584 CORES 6 GB RAM DEDICADA / GPU 8 GPGPUs x 1,024 GFLOPS = 8,192 GFLOPS H P C U N I S O N

ALMACENAMIENTO PARALELO Nodos de control Arreglos de discos 2 X 2 XEON E5620, 2.4 GHZ = 8 CORES 48 GB RAM 600 GB 15K RPM SCSI 6GBPS 24 TB 7.2K RPM SAS 6GBPS 2 X 24 TB 7.2K RPM SAS 6GBPS

UPS, CABLEADO Y RACK 18 KVA BANCO DE BATERIAS 2X 42 U 16 PUERTOS CONSOLA

RESULTADO DE LA IMPLEMENTACION

SOFTWARE INSTALADO Administración: Sistema Operativo Linux CentOS 6.2 Torque 4.0.2 (Resource Manager) Maui 3.3.1 (Cluster Scheduler) Ganglia 3.5.2 (Monitoring System) Librerías de paso de mensajes: MVAPICH 1.9a2 (MPI over InfiniBand) Open MPI 1.4.5 (Open Source High Performance Message Passing Library) MPICH2 1.5 (Message Passing Interface)

SOFTWARE INSTALADO Compiladores y librerías matemáticas: Open64 5.0 (C, Fortran Compilers) ACML 5.1.0 (AMD Core Math Library) CUDA 5 (Compute Unified Device Architecture) FFTW 3.3.1 (Fast Fourier Transform in the West) GSL 1.9 (GNU Scientific Library) Aplicaciones: NWChem 6.1.1 (High-Performance Computational Chemistry Software) GROMACS 4.5.5 (Groningen Machine for Chemical Simulations) NAMD 2.8 (Nanoscale Molecular Dynamics) GAMESS (General Atomic and Molecular Electronic Structure System)

EQUIPO DE APOYO: LABORATORIO DE SUPERCOMPUTO Y VISUALIZACIÓN DE LA UAM-I, GRACIAS!!!

EQUIPO DE ADMINISTRACION IDEAL 1 ADMINISTRADOR DE PROYECTO 1 ADMINISTRADOR TECNICO 2 ADMINISTRADOR DE SOLUCIONES SOPORTE TECNICO: 1 CALCULO CPU 1 CALCULO GPU 1 VISUALIZACION CIENTIFICA 1 LUSTRE 1 RED INFINIBAND/ETHERNET

RECOMENDACIOES Ser puntuales Preguntar Realizar las prácticas Consultar materiales

COMENTARIOS Constancias Cuentas para curso Coffe break

carmen@acarus.uson.mx www.acarus.uson.mx