HPCDay Córdoba, 2013



Documentos relacionados
Equipamiento disponible

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

High Performance Computing y Big Data en AWS. +info: ( HPC y Big Data en AWS 16 Abril, / 14

Cálculo avanzado: facilidades y rangos de aplicación

Beneficios del uso del HPC en la industria

RECURSOS SUPERCOMPUTACIÓN BSC- CNS RES PRACE

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades

Montserrat González Ferreiro RES management engineer

Soluciones para entornos HPC

TIER 0 TIER 1 TIER 2

Memoria de las mejoras, tanto técnicas y de plazos de entrega como de mantenimiento, que la empresa haya decidido ofrecer.

HUBzero Ciberinfraestructura para Difusión, Divulgación y Colaboración

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero

Recursos y servicios HPC en el BIFI

TRES PREGUNTAS SOBRE El Supercomputador ALTAMIRA Abierto a la Innovación

Infraestructura de vanguardia Recursos humanos altamente especializados

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

Cloud computing y diseño de fármacos: Docking Virtual sobre Amazon EC2 Diego Alonso López Ingeniero Informático Director: Luis M. A.

CENTRO DE FORMACIÓN DE CONTROL DE PROCESOS Y MANTENIMIENTO

Javier Pérez Mato µp para Comunicaciones Curso 2008/09 ETSIT - ULPGC

HPC en Uruguay: pasado, presente y futuro

CENTRO DE CAPACITACIÓN TÉCNICA DE NUEVAS TECNOLOGIAS

CLUSTER FING: ARQUITECTURA Y APLICACIONES

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

Clusters de Alto Rendimiento

Informe sobre la producción científica de la Universidad de Valladolid en el año. 7 de julio de 2015

Linux Week PUCP. Computación de Alto Rendimiento en Linux.

Las TIC y la Supercomputacion en la Universitat de Valencia

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Taller de Programación Paralela

Oracle Optimized Solutions. Jorge Cordoba Senior Sales Consultant

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Presentamos la familia de procesador Intel Xeon, creada para crecer

CAR.

Automatización en la industria eólica. Technology, Vestas Mediterranean

COMPARACIÓN DEL RENDIMIENTO COMPUTACIONAL ENTRE DIFERENTES METODOLOGÍAS DE PROCESAMIENTO EN PARALELO PARA FEA VÍA ANSYS 14.5

Heterogénea y Jerárquica

HPCLATAM: Hacia la integración de HPC en el Cono Sur Latinoamericano

Universidad de Guadalajara

ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL CENTRO DE INVESTIGACIÓN CIENTÍFICA Y TECNOLÓGICA

UNIVERSIDAD TECNOLÓGICA EQUINOCCIAL DIRECCIÓN GENERAL DE POSGRADOS MAGÍSTER EN GERENCIA DE NEGOCIOS. Trabajo de grado para la obtención del título de:

Supercomputación Tendencias

CENTRO DE SUPERCOMPUTACIÓN

El Corazón de los Centros de Datos Flexibles y Eficientes

I ENCUENTRO INTERUNIVERSITARIO HISPANO-ÁRABE HI SA RA. SEVILLA, ESPAÑA de MAYO,


Matias Avila Salinas Fecha del documento: 22/11/2013 v d3a5aa318ef63e709c908d2b3a54231e

CLUSTER HÍBRIDO DE SUPERCÓMPUTO XIUHCOATL

Desarrollo de un cluster computacional para la compilación de. algoritmos en paralelo en el Observatorio Astronómico.

A=:C17=<3A /D/<H/2/A 3: G 3: SERVIDORES BLADE DELL POWEREDGE SERIE M

Universidad Autónoma de Aguascalientes Luis Eduardo Bautista Villalpando

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1.

Cantidad y calidad de la investigación de instituciones argentinas Una mirada desde el Ranking de Instituciones de Investigación SIR 2010

Big data, clima y meteorología

Creando una comunidad HPC

GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC

Nodo Nacional de Bioinformática

Innovación y eficiencia en el Data Center. Luis Palacios Director grupo Infraestructura

Mendieta. Carlos Bederián IFEG-CONICET, FaMAF-UNC WHPC13

SAFETY ROAD SHOW 2015 Paul Teboul Co Chairman HST México

Intelligent Management Center

Fernando Blanco Conselleiro de Innovación e Industria Xunta de Galicia

Encuentro tecnológico Prov. de Buenos Aires

Qué es CISE? Computing and Information Sciences and Engineering estudia la filosofía, naturaleza,

Infraestructura de Redes. Microprocesadores

Índice Marco de Brecha Digital 11ava. Edición. Por Federico Rossignoli, Director General de Marco Marketing Consultants México.

CENTRO DE DATOS BESTIAS DE CARGA: NUEVOS SERVIDORES DELL POWEREDGE EN RACK Y BLADE

Sistemas Multiprocesador de Memoria Compartida Comerciales

DONACION DE OLD TIME FOUNDATION A NIKAO MAORI SCHOOL RAROTONGA ISLAS COOK OCTUBRE 2007

Introducción a la Computación Distribuida y Condor

Área de Plásticos. Dedicada a su vez a labores de Investigación y Desarrollo en dos grandes campos: Transformación de plástico y pulverización.

HPE ProLiant DL380 Gen9 Server

Formación de Investigadores de América. Doctorados de Tiempo Compartido e Incubadoras de Investigación DTCII Puebla, Octubre de 2011 OUI OUI

Comparación del rendimiento entre los hipervisores XEN y KVM usando virtualización

Dra. Alicia Marcela Printista

Comunidad de Laboratorios Compartidos

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

Ingeniero en Informática

Arquitecturas de Computadoras II. Febrero 2013

ESCUELA POLITÉCNICA DEL EJÉRCITO DEPARTAMENTO DE CIENCIAS DE LA TIERRA Y CONSTRUCCIÓN

Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Palabras Clave:

Supercomputador TEIDE HPC

IV Jornada de Coordinación del SIC

DESARROLLO TECNOLÓGICO E INNOVACIÓN: EL ROL DE LA I+D PRIVADA La vinculación academia-empresa

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL LABORATORIO DE TECNOLOGIAS DE INFORMACION UNIDAD TAMAULIPAS

BANCO CENTRAL DE RESERVA DEL PERÚ. INFORME TÉCNICO PREVIO DE EVALUACIÓN DE SOFTWARE No GTIOOO

El gasto total elegible de la BBPP, Centro de Supercomputación es de ,11. La ayuda FEDER, es el 80%, ,48

Presentación de Compañía

UTN :: buenos aires. Administración de Recursos

La producción científica en Ecuador en el contexto latinoamericano

Requerimientos Mínimos del Sistema. Interfaces de Audio M-AUDIO. M-Track Plus - USB interfaz de dos canales de audio / MIDI con Digital I / O

NubaDat An Integral Cloud Big Data Platform. Ricardo Jimenez-Peris

FICHA MEMORIA DOCENTE Curso Académico 2006/ 07

misión Consolidarse como Centro de Excelencia en I+D+i en Computación y Simulación Numérica aplicada.

Computación en Procesado de Datos de Secuenciación Masiva Proyecto CloudPYME II Pablo Iglesias Veiga 15/10/2015

Uso del supercomputador Ben Arabí

BSC MARENOSTRUM. Javier Bartolomé Rodriguez Systems Group

Transcripción:

HPCDay Córdoba, 2013

LAS 50 SUPERCOMPUTADORAS MAS RÁPIDAS DE AMÉRICA LATINA Dra. A. Marcela Printista Departamento de Informática Universidad Nacional de San Luis

LARTop50 tiene por finalidad crear y mantener actualizada la LISTA con las estadísticas de los sistemas de supercomputación con mejor desempeño computacional de América Latina

OBJETIVOS Recolectar información útil acerca de los equipos de computación instalados en la región de América Latina. Mantener actualizada a la comunidad de HPC a fin de que todos sus miembros tengan una mejor comprensión del mercado de supercomputadoras en la región. Promover el intercambio intelectual, la discusión de los resultados obtenidos y la concreción de colaboraciones interinstitucionales.

OBJETIVOS Promover la formación de recursos humanos calificados en HPC, tanto en el seno de instituciones educativas, como en las empresas del sector. Organizar eventos que contribuyan a la difusión y desarrollo del área de HPC en América Latina.

LINPACK Posición en la Lista R max - Rendimiento Linpack máximo alcanzado N max - Tamaño del problema para lograr R max Eficiencia

HPL - Highly Parallel LINPACK (http://www.netlib.org/benchmark/hpl/) El benchmark LINPACK asiste a los usuarios del paquete LINPACK proveyendo información de los tiempos de ejecución requeridos para resolver un sistema de ecuaciones lineales.

WEBSITE http://www.lartop50.org

22 Centros registraron su sistema: 5 1 3 1 4 4 Uruguay Mexico Brasil Chile Venezuela Argentina Colombia 4 13 sitios completaron los resultados generados por benchmark Linpack

List July 2013 (1-13) Rmax values are in GFlops RANK Name Site Country Vendor Model Processor Number of nodes Number of cores Rmax 1 MIZTLI UNAM Mexico Hewlett Packard HP Cluster Platform 3000SL Intel E5-2670 332 5280 89429 2 CENAPAD-SP IBM P750 CENAPAD-SP Brazil IBM P750 PowerPC_ POWER7 40 1280 27020 3 LEVQUE NLHPC Chile IBM idataplex Xeon Nehalem X5550 66 528 4847 4 MEDUSA CIO Mexico Lufac Computación S.A. de C.V. LCI-40 Xeon X5675 36 432 4842 5 ISAAC CNEA GTIC/DCAP Argentina SIASA (INTEL) Heterogeneo Xeon X32207/ Xeon E5420 162 644 2922 6 Sunhpc CENAPAD-RJ, LNCC Brazil Sun Sun Blade X6250 Xeon E5440 72 568 1881

List July 2013 (1-13) -Rmax values are in GFlops RANK Name Site Country Vendor Model Processor Number of nodes Number of cores Rmax 7 TROQUIL CMCC-UFRO Chile SGI Altix UV 2000 Xeon MID-BIN 12 96 1547 8 Cluster FING FiNG - UNLAR Uruguay HP DELL HP Proliant DL 585 PowerEdge HP Proliant DL 380 Opteron 6172 Xeon E5430 Xeon E5520 11 10 4 408 1143,4 9 ICE CENAPAD-RJ, LNCC Brazil SGI ICE 8400 Xeon X5650 15 150 1131 10 Piluso Rosario HPC - HPCROS Argentina Dell Sun Dell PowerEdge R715 AMD Opteron 6100 22 704 1080 11 APOLO APOLO Colombia HP DELL DL140G3 Xeon E5410 36 288 1009,57 12 ICB-ITIC ICB- ITIC Argentina Vertex A+ Server 4042G- 6RF AMD Opteron 6272 2 128 225,6 13 CALCULO UnCaFYQT - INIFTA Argentina Intel Heterogeneous Intel Quad Core Intel Core 2 Duo E6750 30 17 128 78,6

MIZTLI, the supercomputer installed at the Universidad Nacional Autónoma de México (UNAM) is the top 1 of the first HPC ranking of Latin America with a performance of 89428 gigaflop/s on the Linpack benchmark. MIZTLI, is a Hewlett Packard cluster Platform 3000, with 332 nodes, each with two Intel Xeon Processor E5-2670 (8C). Its total number of cores is 5280. Interconnection: Infiniband QDR 40 Gbps. 1 MIZTLI (2012) MIZTLI is a computer available to all researchers at the UNAM. There are approximately 60 research groups using this equipment. The most representative areas of research and development are Materials Sciences, Biochemical Sciences, Chemical Sciences, Astrophysics and Atmospheric Sciences.

The supercomputer IBM P750 installed at the National Center of High Performance Processing (Centro Nacional de Processamento Alto Desempenho em Sao Paulo CENAPAD SP, Brazil) is the number 2 of the first HPC ranking of Latin America with a performance of 27020 gigaflop/s on the Linpack benchmark. 2 CENAPAD-SP IBM P750 (2010) CENAPAD-SP has an IBM P750 cluster, with 40 nodes Power7, each with 32 cores and 128 Giga de RAM. Its total number of cores is 1280. Inteconnection: Infiniband. There are approximately 130 research groups using CENAPAD-SP/IBM P750. The most representative areas of research and development are Physics, Chemistry, Astronomy, Biology, Computing, Engineering, Statistics and Mathematics.

LEVQUE, the supercomputer installed at National Laboratory for High Performance Computing (Universidad Nacional de Chile, Chile) is the number 3 of the first HPC ranking of Latin America with a performance of 4.847 gigaflop/s on the Linpack benchmark. LEVQUE is a IBM idataplex cluster 1350, with 66 nodes, each with two Intel Xeon Processor X5550 (4C) with 24 Gb RAM for computing in production and HCA infiniband (Mellanox ConnectX) with two port QDR 4x (40 Gbit/s) either one. Its total number of cores is 528 cores. Interconnection: QLogic Infiniband Director 12800-180 (QDR). 3 LEVQUE (2010) LEVQUE is a cluster of general purpose that is part of the infrastructure of National Laboratory for High Performance Computing (NLHPC) of the University of Chile. It currently has over 120 members who come from seven Chilean Universities and Science for Life Foundation. Its main use, according to the percentage of CPU usage is: Molecular Simulation (40%), Bioinformatics (20%), Climate Model (10%), and the rest distributed between Quantum Chemistry, Mathematics Mechanics and Fluid Mechanics, among other areas.

MEDUSA is the supercomputer of the Research Center of Optic (Centro de Investigaciones en Óptica, México) is the number 4 of the first HPC ranking of Latin America with a performance of 4.842 gigaflop/s on the Linpack benchmark. 4 MEDUSA (2010) MEDUSA is a LCI-40, with 36 nodes, each with two Intel Xeon Processor X5675 (6C, 12M Cache, 3.06 GHz, 6.40 GT/s Intel QPI). Its total number of cores is 432 cores. Interconnection: Infiniband QDR. The main use of the MEDUSA is to perform first principles calculations of the optical properties of materials. In addition, some users perform calculations related to the Areas of Photonic Crystals and Chaos.

ISAAC, the supercomputer of CNEA installed at the Department of High Performance Computing DCAP-CNEA ( Departamento de Computación de Alta Prestación de la Comisión Nacional de Energía Atómica, Argentina) is the number 5 of the first HPC ranking of Latin America with a performance of 2992 gigaflop/s on the Linpack benchmark. ISAAC is a heterogeneous cluster of Intel Xeon Processors X3220 (4C) and Intel Xeon Processors E5420 (4C). It has 162 nodes and 644 cores. Interconnection: GETH/IB. 5 ISAAC (2010) The main researching areas on ISSAC are the Simulation of magnetic and electronic properties and of transport complex systems and low dimensional, Numerical methods in complex systems and quantum computing, Computational methods and experimental designs applied to metal alloys used in reactor technology and nuclear fuel, Properties and behavior of materials for advanced technologies, Radiation transport simulations for therapy neutron capture, Computer simulation of complex fluids, Simulations on Soft Matter, Polymer Interfaces and biological membranes, Micro-fluidics, Simulation and calculation of atomic collision processes and Calculation of properties: Junturas, Oxides, Complex Materials, Alloys and New Materials (http://www.cnea.gov.ar/).

% LARtop Rmax vs Rpeak Efficiency 1,0E+06 1,0E+05 1,0E+04 1,0E+03 1,0E+02 Rmax Rpeak 1,0E+01 1,0E+00 Efficiency 100 90 80 70 60 50 40 30 20 10 0 74,21 91,27 73,03 85,95 52,09 35,54 83,94 32,67 70,60 37,61 14,75 21,01 5,78

PROXIMA LISTA: HPCLATAM 2014- VALPARAISO CHILE Deadline: 1 de Setiembre de 2014 info@lartop50.org