Técnicas de Computación Científica

Documentos relacionados
Rendimiento y monitorización

Mendieta. Carlos Bederián IFEG-CONICET, FaMAF-UNC WHPC13

HPC-Support. David Vicente BSC Support group

BSC MARENOSTRUM. Javier Bartolomé Rodriguez Systems Group

II. DISEÑO DEL SISTEMA. Introducción Instalación por red Arranque por red

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

TEMA 6: COMPUTACIÓN CLUSTER

CLUSTER FING: ARQUITECTURA Y APLICACIONES

ALIEN: clúster de cálculo intensivo

ADMINISTRACIÓN DE IMPRESORAS EN LINUX

Intelligent Management Center

Introducción. TEMA 3: Clusters de Computadores Personales

DE CLUSTER A CLOUD (VISIÓN PRÁCTICA) ARCOS

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Computación Cientíca en Clusters

Cómputo en paralelo con MPI

Nociones básicas de computación paralela

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s!

GUÍA DE USO CLUSTER CICA

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

Instalación de Eclipse Galileo y depuradores compatibles con OpenMPI y OpenMP

Equipamiento disponible

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing

RES (Red Española de Supercomputación) & PRACE

Linux Clusters Gilberto Diaz Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero

Soluciones para entornos HPC

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

CAR.

Computacion de Alto Performance

GREASY. Paralelismo trivial en LaPalma

CONTROLADORA PARA PIXELS CONPIX

Lusitania. Pensando en Paralelo. César Gómez Martín

La Red Española de Supercomputación

Gestor de Colas SGE. 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON

Cluster Beowulf/MPI en Debian

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

INSTITUTO DE BIOCOMPUTACIÓN Y FÍSICA DE SISTEMAS COMPLEJOS CURSO CLUSTERS & GRID COMPUTING EN ENTORNOS DE SOFTWARE LIBRE.

SERVIDORES.

V. SERVICIOS DEL SISTEMA NIS LDAP NTP

Parallel Virtual File System (PVFS)

Recursos y servicios HPC en el BIFI

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters

COMPUTACIÓN DE ELEVADAS PRESTACIONES: INFRAESTRUCTURAS, CASOS DE ÉXITO Y APLICACIONES PRÁCTICAS

Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas

PPTSU DESCRIPCIÓN Y CARACTERÍSTICAS TÉCNICAS:

Breve historia de la creación del laboratorio de supercómputo y visualización en paralelo.

Uso del supercomputador Ben Arabí

CENTRO DE SUPERCOMPUTACIÓN

Montserrat González Ferreiro RES management engineer

High Performance Computing y Big Data en AWS. +info: ( HPC y Big Data en AWS 16 Abril, / 14

IBM Rational Asset Manager

Computación de Alta Performance Curso 2008 CLUSTERS

Upgrade de bases de datos z/linux de SLES10 SP4 + DB2 9.7 a SLES11 SP3 + DB2 10.5

In the following you see an example of a SPAC calculation run. BKtel systems Seite 1/8

Las TIC y la Supercomputacion en la Universitat de Valencia

Parallel Virtual File System (PVFS)

TEMA 3. CONCEPTOS FUNDAMENTALES DEL NIVEL DEL SISTEMA OPERATIVO. Definición y objetivos de un S.O

Organización del Centro de Cálculo

11.1 RELACION DE LABORATORIOS ESPECIALIZADOS HABILITADOS PARA EL POSGRADO EN EL DEPARTAMENTO DE COMPUTACION UNIDAD ZACATENCO

Investigación, Resultados Y beneficios. Simplificación de HPC en la educación superior e instituciones de investigación. Información general

UNIVERSIDAD MILITAR NUEVA GRANADA ANEXO T2 INFRAESTRUCTURA ACTUAL

MANUAL PARA LA TRANSFORMACION DE FORMATOS GIS A CAD CON CAMBIO DE SISTEMA DE REFERENCIA MEDIANTE MICROSTATION

Número Fecha Compañía Observación Comentario. 1A 29-Abr-09 SGI

Facilidad de cálculo científico. Universitat Jaume I

CLUSTER HPC CALDERON

Soluciones que aportan valor a la seguridad de los datos. Soluciones integradas para empresas

Hardware para el PCN de la infraestructura de virtualización.

Ingeniero en Informática

Cálculo avanzado: facilidades y rangos de aplicación

Guía de Instalación Oracle Business Intelligence Enterprise Edition ( ) Advanced Installation Type

Introducción al Cluster

Laboratorio de Optimización

Curso: Uso de infraestructuras Clúster y Grid para proyectos de e-ciencia. Lanzamiento y Monitoreo de Jobs en Condor. GRID COLOMBIA - RENATA [Ciudad]

Touch Display Link - Nueva Solución de Software para Sharp IWB -

Curso-Taller Programación Paralela con lenguaje C bajo Linux. MCC. Salazar Martínez Hilario

Guía de instalación y configuración de IBM SPSS Modeler Social Network Analysis 16

CLUSTER HPC CALDERON

Continuous Delivery (y 3)

Heterogénea y Jerárquica

Requisitos Técnicos de Cluster Heterogéneo.

Real Time Systems. Part 2: Cyclic schedulers. Real Time Systems. Francisco Martín Rico. URJC. 2011

vstecniris-33 Tecnologías de Almacenamiento (2ª Parte) Octubre 2014 Gabriel Verdejo Álvarez

VMware vs. Xen. Comparación de dos esquemas populares de virtualización. Héctor López Guillermo Veitia

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

ADAPTACIÓN DE REAL TIME WORKSHOP AL SISTEMA OPERATIVO LINUX

Supercomputador LUSITANIA

ANEXO I: Inventario MITyC Servidores

Virtualización de servidores

Supercomputación basada en estándares para el desarrollo de la I+D+I

Entorno ubicuo basado en virtualización para la docencia práctica. Entorno ubicuo basado en virtualización para la docencia práctica.

Consolidación y Virtualización de servidores

Instalación Nexus 1000v. Lucio DʼAndrea Partner System Engineer

Sun Grid Engine en entornos Grid. Isabel Campos BIFI

datos para plataformas de cómputo Red Gallega de Computación de Altas Prestaciones

Instrucciones de instalación de IBM SPSS Modeler Server 17 para UNIX

PROYECTO DE VIRTUALIZACIÓN BLADE SYSTEM + VMWARE Business Case Empresa de Moda. Main Memory, S.A. Datos de contacto

Transcripción:

Técnicas de Computación Científica Intro Prácticas FIM 2010/11 Vicente Martín v0.1a

Tarzan: Multicomputador con nodos SMP En la IBM SP2 cada nodo es una estación de trabajo con su propio espacio de direcciones bajo el control exclusivo de su propio sistema operativo. El acceso a una posición de memoria perteneciente a otro nodo requiere la comunicación de dos SO independientes con un paso de mensajes explícito, en este caso ayudado por HW específico: el High Performance Switch

Clasificación de Arquitecturas paralelas Elmer, Triqui1 4 Prácticas Magerit, Triqui1 4

Machines available for practises. Magerit. Multicomputer. Cluster architecture made up from bi and tetraprocs PPC 970. Myrinet+Gigabit. Linux SLE ~2800 CPUs Elmer: Power 5 SMP 2CPUs (2 threads per CPU). AIX. OS sees the machine as a 4 CPUs SMP. Triqui 1 2 3 4. Intel SMP 8 CPUs (2 quadcores). Linux (main machine for OpenMP) Arturo, Alpha 21264, tetraprocessor. True64 Unix, used only for HPF (NO).

Magerit/Elmer: Compiladores de IBM Compiladores (drivers para compilación y montado): Estándar: xlf, xlf90, xlf95 Reentrantes (para OMP, con cualificador qsmp=omp) xlf_r, xlf90_r, xlf95_r Para paso de mensajes (MPI): mpxlf, mpxlf90, mpxlf95 Para HPF: xlhpf Modo mezcla: mpxlf_r, mpxlf90_r, mpxlf95_r Otras herramientas: PAPI. vt para leer las trazas generadas por una ejecución con tracelevel 9

ELMER: CPU POWER5, Dual core, 2 threads/cpu. OS sees the machine as a 4 CPUs SMP. AIX 5.x Same IBM Compilers: xlf, xlf90, xlf95, xlc... upc?? PAPI ARTURO: NO CPU Alpha 21264. 4 CPUs AlphaServer ES40 Tru64 Unix V5.x f77/f90/f95 cc

CeSViMa: Magerit Potencia sostenida 16 Tflops Multicomputador: Linux SLE Myrinet: comunicación interproceso MPI Gigabit Ethernet: Sistema de ficheros (GPFS) + gestión. 1204 nodos de cómputo 1036 Blade JS20 Biprocesador PPC 970 2,2GHz 4GB RAM 168 Blade JS21 Tetraprocesador PPC 970 2,3GHz 8GB RAM Cerca de 2800 CPUs, 5.5 TB de RAM y 55TB de disco local.

Discos Capacidad 192 TB 256 HD SATA x 750GB Distribuido (16 servidores Power5) Tolerante a fallos RAID5 + HOT SPARE Sistema de colas (LoadLeveler) Cola learn Compiladores: IBM XL C/C++/Fortran 77/90/95 Compiladores GNU MPI: Lamm, Glenn Messages.

Nodos Interactivos: Login y trabajo de desarrollo. Nodos de Cómputo: Gestionados por el LoadLeveler Cola learn (llclass l) Compiladores: IBM XL C/C++/Fortran 77/90/95 Compiladores GNU MPI: Lamm, Glenn Messages.

Compilers: IBM XL C/C++ (xlc, xlc) Fortran 77/90/95 (xlf, xlf90, xlf95) and thread safe versions (_r commands) GNU compilers (gcc, g++, g77) MPI wrappers (mpicc, mpicc, mpif70, mpif90) Backend are IBM XL compilers by default. MPI: Lamm, Glenn Messages. A Job definition file is needed in order to submit a job. (see Magerit docs, http://static.cesvima.upm.es/doc/manual/magerit-guiausuarios.pdf) res-support@cesvima.upm.es

SLURM: Simple Linux Utility for Resource Management scalable cluster management and job scheduling system for Linux clusters A Slurm daemon (slurmd) runs at every node. It is under the control of a central (slurmctl) daemon. Useful commands: sacct, salloc, sattach, sbatch, sbcast, scancel, scontrol, sinfo, smap, squeue, srun, strigger and sview QoS based.

SLURM-Moab Basic commands jobcancel suprime un trabajo de la cola de ejecución. jobcheck muestra información detallada de un trabajo. jobq muestra el estado de los trabajos del usuario en el sistema desglosado según su estado. jobstart proporciona la hora estimada de inicio del trabajo. jobsubmit envía un trabajo al sistema para su ejecución.

A Job definition file is needed in order to submit a job. (see Magerit docs) #!/bin/bash #----------------------- Start job description ----------------------- #@ group = [project_id] #@ class = [class_name] #@ initialdir = /gpfs/projects/[project_id]/[data_dir] #@ output = res/[programoutfile].out #@ error = res/[programerrfile].err #@ total_tasks = [number of tasks] #@ wall_clock_limit = [hh:mm:ss] #------------------------ End job description ------------------------ #-------------------------- Start execution -------------------------- # Run our program srun./[myprogram] #--------------------------- End execution ---------------------------

Magerit: OpenMP Disponible en: Compiladores serie XL (xlf, xlc): usar switch qsmp=omp y librerias reentrantes llamando a los compiladores con los scripts xlf_r y xlc_r Compiladores GNU: teneis que mirar por vuestra cuenta el nivel al que está soportado en esa arquitectura. NOTA: La mayoría de los nodos de Magerit son de 2 procesadores, en estos la máxima ganancia con OpenMP es un factor 2. Hay unos pocos que son tetraprocesadores (ganacia máxima 4)

Triqui 1 2 3 4: 8 cores per node. Intel compilers (icc, ifort): use openmp switch for openmp. Están en /opt/intel/compiler/11.1/069 Look for the exact place: it changes qith compiler versions. There is a Documentation directory. You have to make sourcing of the files (source or. commands): iccvars.sh ( C language and Bourne shell. Also.csh version) ifortvars.sh (idem Fortran version) en /opt/intel/compiler/11.1/069/bin with argument intel64 Place the commands in.bash_profile if you don't want to have to repeat it each time. GNU compilers: use the fopenmp switch.

Triqui 1 4: Por si acaso no funciona directamente el ifortvars.sh: Export PATH=$PATH:/opt/intel/Compiler/11.1/069/bin/intel64 Export LD_LIBRARY_PATH=/opt/intel/Compiler/11.1/069/lib/intel64 /opt/intel/compiler/11.1/069/bin/ifortvars.sh intel64

UPC disponible en Triqui 1 4: UPC es experimental y está compilado con el compilador de Intel (icc, usad iccvars.sh ) Añadir /usr/local/berkeley_upc/bin a vuestro PATH Comprobadlo con upc V

MPI en Triqui 1 4: MPICH2 implementacion de MPI2 completo. Añadir /usr/local/mpich2-1.1.1/bin a vuestro PATH Comprobadlo con mpich2version Incluye drivers para los compiladores/montadores: mpif90, mpif77 Para iniciar procesos usa el mecanismo definido en el standard 2: mpiexec aunque sigue aceptado el viejo mpirun. En cada nodo se inicia un demonio que actua como gestor de los procesos MPI. Los demonios se inician con mpd &

Ejemplo: $ mpd & $ mpiexec n 4 hostname También se puede decidir en donde se ejecutan los programas a través de un host file: mpiexec machinefile mf n 7 p0 Ejemplo de machinefile: # comment line triqui4 Triqui3:4 ifhn=hostc gige triqui2