Cluster de GPUs con MatLab

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Cluster de GPUs con MatLab"

Transcripción

1 Cluster de GPUs con MatLab A. Guillén, M. G. Arenas, L.J. Herrera, H. Pomares, I. Rojas Resumen Este artículo presenta la arquitectura de un cluster de máquinas heterogéneas donde cada uno de los nodos posee una Unidad de procesamiento gráfico (GPU). La razón de este artículo es el hecho de que la tecnología actual presenta unos resultados impresionantes en computación de altas prestaciones a un coste verdaderamente pequeño y por lo tanto un consumo de energía también pequeño. Sin embargo este hecho podría no ser una novedad destacable de no ser por el hecho de que esta arquitectura puede ser programada con MATLAB donde muchos investigadores desarrollan su trabajo habitual. Como un ejemplo de aplicación se muestra una implementación del algoritmo de los k vecinos más cercanos que se ejecuta utilizando dos técnicas de paralelización diferentes, paso de mensajes con MPI y programación en memoria compartida utilizando CUDA. I. Introducción La potencia computacional de las aplicaciones de aprizaje automático es mayor cuanto mayor es la complejidad de los problemas que se abordan y de igual forma es mayor cuantas más aplicaciones del mundo real se intentan solucionar. La comunidad científica por su parte, consciente de estas limitaciones, ha seguido investigando en cómo obtener mejores rimientos sacándole el máximo partido a la tecnología actual. La madre naturaleza nos muestra algunos de estos ejemplos donde la unión hace la fuerza permitio en esta unión el principio de los problemas divide y vencerás. Ya se han analizado la creación de modelos teóricos que utilizan ensembles, demostrando mejores resultados en trabajos como [1]. La arquitectura de computadores ha exprimido esta filosofía durante muchos años llegando a que sea Internet el proveedor de recursos de computación (computación en nube - Cloud computing-). Este artículo presenta una forma sencilla de utilizar los dispositivos de computación de altas prestaciones, como son las unidades de procesamiento gráfico (GPUs), junto con una arquitectura clásica de cluster beowulf [2]. El resto del artículo se organiza en las siguientes secciones. Sección 2 describe algunos aspectos técnicos útiles para enter la arquitectura que se describe posteriormente en la sección 3. A continuación la sección 4 presenta un ejemplo de aplicación paralela ejecutándose en la plataforma descrita y por último, se incluyen unas conclusiones en la sección 6. Departamento de Arquitectura y Tecnología de los Computadores, Universidad de Granada, España. II. Descripción Técnica A. Cluster de computadores Los clusters de computadores se han utilizado desde el principio de la informátcia como una forma de distribuir trabajos, datos y obtener más seguridad y tolerancia a fallos. En 1994, el proyecto Beowulf desarrolla un cluster de computadores utilizando ordenadores individuales y conectándolos mediante una red local Ethernet. A.1 Paradigmas de programación: Interfaz de paso de mensajes (MPI) Tal y como se define en MPI es: una librería para paso de mensajes, propuesta como estándar por una comisión formada por fabricantes, desarrolladores y ususarios Entre las ventajas que han hecho de esta librería una de las más conocidas están: que está disponible de forma gratuita, que fue diseñada tanto para máquinas de computación de altas prestaciones, para máquinas masivamente paralelas o para clusters de estaciones de trabajo. El Interfaz de Paso de Mensajes (MPI) se diseño con el fin de proporcionar una librería de programación para comunicar procesos en redes de computadores, que pueden estar formadas por nodos totalmente heterogéneos. Los procesos se comunican entre ellos enviando mensajes entre dos procesos o entre un conjunto de ellos creando comunicaciones de tipo colectivo. MPI es la librería más utilizada para intercomunicación en aplicaciones de computación de altas prestaciones. Existen varios distribuidores que ofrecen diferentes implementaciones como OpenM- PI 1 o MPICH 2 por ejemplo. Esto permite a los desarrolladores utilizar varios procesos que se pueden estar ejecutando en una máquina distribuida. Esta librería puede ser utilizada para programar en todos los tipos de máquina de computación de altas prestaciones (HPC) y es compatible con el Sun Grid Engine (SGE) hacio que la programación y la experimentación sea más fácil y cómoda para los usuarios. La libería está disponible en varios lenguajes de programación como C, C++, Java, :NET, python u OCaml. También se han hecho muchos esfuerzos por disponer de la posibilidad de utilizar la librería desde MATLAB ya que Mathworks no provee de toda la funcionalidad de la librería. Algunas 1 2

2 de las adaptaciones más populares son MatlabMPI [3], MPITB [4][5] 3 y MPImex [6]. B. Clusters de GPUs La definición de cluster de GPU no está clara porque debería haber dos interpretaciones: una máquina con varias GPUs (que pueden tener varios cores) o un conjunto de computadores donde cada uno de ellos posee una GPU. La primera vez que se abordó esta idea fue en 2010 donde M. van Heeswijk et al. [7] donde utilizó una tarjeta NVidia GTX295 con doos unidades de procesamiento gráfico (GPUs) proporcionando un total de 1790 GFlops de potencia computacional para diseñar una red neuronal. En [8] se vuelve a utilizar esta arquitectura para mejorar las prestaciones de un algoritmo. La segunda interpretación de cluster de GPUs se ha implementado en más trabajos en la literatura. Por ejemplo Fan et al. [9] construye un cluster con 32 nodos de computación conectados por una red Ethernet de 1 Gigabit donde cada nodo incluye una CPU dual que es un PC HP con una tarjeta nvidia GeForce FX 5800 Ultra. Otros ejemplos que incluyen GPUs y CPUs como nodos de computacion son por ejemplo los cluster Lincoln ([10] con 192 nodos servidores con 96 tarjetas nvidia Tesla S1070 Accelerator desarrollado en el centro nacional de aplicaciones de supercomputación (NCSA) en la Universidad de Illinois. El cluster Lincoln es heterogéneo puesto que utiliza CPUs y GPUs depio de la aplicación que esté ejecutando en cada momento. B.1 Paradigmas de programación: (Compute Unified Device Architecture) CUDA Tal y como se define en la propia compañia NVI- DIA [11]: CUDA is NVIDIAs parallel computing architecture that enables dramatic increases in computing performance by harnessing the power of the GPU (graphics processing unit).. Es decir, CU- DA es una arquitectura de computación paralela de NVIDIA que permite un gran incremento en la potencia de computación aprovechando la potencia de las GPUs. Esta tecnología ha sido aceptada en la comunidad científica con agrado ya que ofrece beneficios obvios y posibilidad de ampliar la variedad de disciplinas donde podemos trabajar (Defensa Militar, Dinámica molecular, Química computacional, Bio-informática, Electrodinámica y Electromagnetismo, etc. [12]). A medida que las GPUs se hacen más presentes, algunos científicos han encauzado su trabajo para hacer computación general con GPU [13] y así poder ejecutar rutinas de CUDA desde MATLAB por ejemplo para poder utilizar desde una aplicación 3 Este proyecto se inició en MATLAB y se ha continuado en Octave Fig. 1. Arquitectura del cluster de GPUs MATLAB las GPUs como si fuera un recurso disponible más. Además algunas de estas propuestas se han comercializado como jacketmatlab [14]. Sin embargo, todos estos enfoques se han quedado en cierto modo anticuados desde la versión 2010b de MATLAB donde ya se incluye una caja de herramientas de computación paralela que es capaz de utilizar y manipular varias GPUs[15], [16]. III. Arquitectura propuesta: Cluster de cluster de GPUs Tal y como hemos descrito en la sección anterior, existe la posibilidad de configurar un cluster utilizando MPI [17] y un cluster con varias GPUs [10], [9], y en este paper se presenta la posibilidad de configurar un cluster donde cada nodo de computacion incluye varias GPUs. Por ejemplo, el cluster BALE del centro de supercomputación de Ohio que incluye 16 nodos con dos dual-core AMD Opteron 2218 CPUs y dos NVIDIA Quadro FX 5600 GPUs cada una (eso supone que el número de cores es 2*128). Sin embargo, hasta donde nosotros sabemos, no se ha configurado un clusgter donde cada nodo incluya varias GPUs que pueda ser programado utilizando MATLAB. La arquitectura se presenta en la figura III y está compuesta por varios nodos con varias GPUs que pueden ejecutar programas MATLAB. La restricción es que la aplicación tiene que ser desarrollada en MATLAB. Otro aspecto destacable es el hecho de que la arquitectura es completamente heterogénea y las CPUs no son como en el caso del cluster de Ohio donde todos los cores eran homogéneos. A. Compilador MATLAB MATLAB tiene una herramienta disponible denominada Compiler the permite a MATLAB generar aplicaciones ejecutables (aplicaciones stand-alone) que pueden ser ejecutadas de forma indepiente, es decir, que no necesitan tener MATLAB instalado en el computador para ejecutarse. La ejecución de este modo requiere un conjunto de librerías que pueden ser distribuidas después de ser generadas con MATLAB. Estas librerías inicializan el Component

3 Runtime (MCR) que interpreta los ficheros.m como las aplicaciones MATLAB que deberían ser. La aplicación se empaqueta en un fichero ejecutable que, cuando es ejecutado, descomprime en un directorio todos los ficheros.m que componen la aplicación y no existe ninguna forma de acceder al código fuente original. El proceso que MATLAB sigue para generar la aplicación stand-alone es automático y totalmente transparente al usuario por lo que el usuario solo tiene que indicar cuales son los ficheros.m que componen la aplicación y MATLAB realizará la con ellos las siguientes operaciones: Análisis de depencias entre los ficheros.m Generación de código: el interfaz con C o C++ se genera en este paso. Creación de ficheros: Una vez que se han resuelto las depencias, los ficheros.m se encriptan y se comprimen. Compilación: Se compila los ficheros.m junto con los interfaces. Enlazado: El código objeto se enlaza con las librerías necesarias de MATLAB. B. Paradigma de programación: CUDA y MPI Utilizando la información de la sección anterior, el procedimiento para inicializar el cluster de clusters de GPUs 4 y programarlo con MATLAB es una tarea sencilla, sin embargo no es así. La implementación de la libería MPI es algo que influiría en el rimiento, especialmente si el cluster está utilizando el grid engine para manejar las tareas. Hasta donde ponemos asegurar, MPImex [6] se ha testeado en clusters locales y configuraciones de grid donde las tareas se mandan directamente a los nodos de computación, pero este enfoque no es válido para nuestro caso. Otra razón es que está basado en la implementación de OpenMPI y este proyecto es un proyecto activo que está sio utilizado y modificado en muchos ámbitos de investigación. El desarrollo de aplicaciones que serán enviadas a los nodos del grid requiere esta caja de herramientas de MPI y desafortunadamente la caja ( parallel distributed toolbox ) que Mathworks proporciona no trabaja con aplicaciones ya desarrolladas, por lo que el soporte que MATLAB proporciona para utilizar varias GPUs no funciona. Para resolver este problema, el interfaz con CU- DA tiene que estár incluido en el código de MATLAB de una forma similar a como están el córido de las funciones MPI para MPImex. Las funciones o procedimientos incluidas pueden estar aisladas en un fichero toolbox o escritas directamente en el código CUDA en los ficheros fuente.cu. En ambos casos, deberemos incluir un parámetro explícito que seleccione qué GPU queremos utilizar. Este parámetro debería ser el identificador del proceso que se obtiene después de la llamada a MPImex(Init) y así cada 4 considerando un cluster de GPU uno o más nodos de computación con una o más GPU conectada a través de una red de Área Local proceso utilizará su propia GPU. El código que hace precisamente esto es: GPUselec = (int)mxgetscalar(prhs[n]); donde (int)mxgetscalar(prhs[n]) hace referencia al parámetro N en la llamada a la función MATLAB que debe ser el identificador del proceso que se ha comentado anteriormente. Después de obtener este valor, la función CUDA que selecciona la GPU está en la figura III-B. Para compilar los ficheros.cu se utiliza el siguiente comando:./nvmex -f./nvopts.sh source-code.cu -I$CUDAROOT/include -L$CUDAROOT/lib64 -lcudart -lcublas -lcufft -L/usr/lib/nvidia-current -lcuda y la variable MATLAB debe está definida: export MATLAB=$MATLABROOT para indicar el directorio donde está instalado MATLAB. La versión de MATLAB que permite esto es la 2009a porque la última versión no soporta los ficheros mex. IV. Experimentos En esta sección se describe un ejemplo de una arquitectura concreta ejecutando un código concreto. El código que se ejecuta es el cálculo de los k vecinos más cercanos que está implementado en CUDA por V. García en [18] y es una función muy útil puesto que es un algoritmo ámpliamente utilizada en trabajos de Data Mining o Machine Learning como clasificador o para realizar un modelado de datos mediante regresión. A. Arquitectura del Cluster El grid que se ha construido incluye los siguientes componentes que se interconectaron según se muestra en la figura III Nodo raíz con 2 GPUs: Procesador: Modelo : (26) Intel(R) Core(TM) i7 CPU 2.80GHz cache : 8192 KB 2 GPUs: GPU :GeForce GTS 450 Cores: 192 memoria: 1024 MB - Memory Interface: 128-bit Bus: PCIExpress x16 Gen1 - PCI-E Max Link Speed: nodos de la red local con 1 GPU cada uno: Procesador: Modelo : (23) Intel(R) Core(TM)2 Quad CPU 2.83GHz cache : 6144 KB GPU : GPU :GeForce 9800 GTX Cores: 128 Memoia: 512 MB - Interfaz de Memoria: 256-bit Bus: PCIExpress x16 Gen2 - PCI-E Max Link Speed: 5000 Processor: Modelo : (15) Intel(R) Core(TM)2 Quad CPU 2.40GHz cache size : 4096 KB

4 result = cudasetdevice(gpuselec); if (result){ printerrormessage(result); cudathreadexit(); return; } result = cudagetdevice(&cudevice); if (cudevice!=gpuselec) printerrormessage( Requested GPU couldn t be selected, 0); if (result){ printerrormessage(result); cudathreadexit(); return; } if(cuda SUCCESS!=cuInit(0)) printferrormessage( CUDA Initialization failed ); Fig. 2. Código CUDA que cada proceso debe ejecutar para seleccionar el dispositivo GPU adecuado. GPU : GPU : GeForce 8400 GS Cores: 162 Memoria: 512 MB - Interfaz de Memoria: 64-bit Bus: PCIExpress x16 - PCI-E Max Link Speed: No disponible B. Ejemplo de Uso En la figura IV hay un fragmento 5 del código del ejemplo. El autor del código original es V. Garcia y lo hemos adaptado siguio las premisas ya explicadas en las secciones anteriores. El fichero mex resultante es: knn cuda with indexes.mexa64 que se puede llamar desde MATLAB con: [value, indx] = knn cuda with indexes(ref,query,k, GPUDevice); donde ref es el conjunto de referencia, query, es el conjunto que se consultará, k, es el número de vecinos más cercanos que deben calcularse y GPUDevice es el número de GPU que se debe utilizar, comenzando en 0. Los procesos reparten los datos para calcular los vecinos más cercanos para cada subconjunto de datos. Después de esto, cada proceso envía su conjunto local de vecinos más cercanos al nodo raiz que realiza el cálculo final con todos los subconjuntos de datos calculados por los procesos hijos. V. Conclusions Los procesadores gŕaficos están cada día consolidando su posición dentro de la computación de altas prestaciones. Este artículo presenta un nuevo framework que aprovecha la tecnología disponible y la integra junto con los conceptos de cluster clásicos. También se ha mostrado el procedimiento para construir la arquitectura, ejecutar los programas MATLAB en ella y concretamente como ejecutar un ejemplo de cálculo de los k vecinos más cercanos en este cluster. Reconocimientos Este trabajo está soportado en parte por los siguientes proyectos: CICYT TIN , TEC , P08-TIC-03674, P08-TIC03928, PYR de CEI BioTIC GENIL (CEB ) 5 para el código completo ir a aguillen/gpucluster/sampleknn. del MICINN y PYR de CEI BioTIC GENIL (CEB ) del MICINN. Referencias [1] Alexander P. Topchy, Martin H. C. Law, Anil K. Jain, and Ana L. Fred, Analysis of consensus partition in cluster ensemble, in Proceedings of the Fourth IEEE International Conference on Data Mining, Washington, DC, USA, 2004, ICDM 04, pp , IEEE Computer Society. [2] William Gropp, Ewing Lusk, and Thomas Sterling, Beowulf cluster computing with Linux, MIT Press, Cambridge, MA, USA, [3] Jeremy Kepner, Matlabmpi, J. Parallel Distrib. Comput., vol. 64, pp , August [4] J. Fern?ndez, M. Anguita, E. Ros, and J.L. Bernier, SCE Toolboxes for the development of high-level parallel applications, Lecture Notes in Computer Science, vol. 3992, pp , [5] J. F. Baldomero, Mpi toolbox for matlab, Tech. Rep., Universidad de Granada, [6] A. Guillen, I. Rojas, G. Rubio, H. Pomares, L.J. Herrera, and J. Gonzalez, A new interface for mpi in matlab and its application over a genetic algorithm, in Proceedings of the European Symposium on Time Series Prediction, 2008, pp [7] M. van Heeswijk, Y. Miche, E. Oja, and A. Lasse, GPU-accelerated and parallelized ELM ensembles for large-scale regression, Neurocomputing, 2010, to appear. [8] John D. Owens, Mike Houston, David Luebke, Simon Green, John E. Stone, and James C. Phillips, GPU computing, Proceedings of the IEEE, vol. 96, no. 5, pp , May [9] Zhe Fan, Feng Qiu, Arie Kaufman, and Suzanne Yoakum-Stover, Gpu cluster for high performance computing, in Proceedings of the 2004 ACM/IEEE conference on Supercomputing, Washington, DC, USA, 2004, SC 04, pp. 47, IEEE Computer Society. [10] V.V. Kindratenko, J.J. Enos, Guochun Shi, M.T. Showerman, G.W. Arnold, J.E. Stone, J.C. Phillips, and Wen mei Hwu, Gpu clusters for high-performance computing, in Cluster Computing and Workshops, CLUSTER 09. IEEE International Conference on, Sept. 2009, pp [11] NVIDIA Corporation, /what is cuda new.html, Tech. Rep., NVidia Corporation, [12] NVIDIA, Cuda-accelerated applications, Tech. Rep., NVIDIA Corporation, [13] The GP you Group, [14] AccelerEyes Corporation, Tech. Rep., AccelerEyes Corporation, [15] Michael Feldman, Matlab adds gpgpu support, September [16] MathWorks Inc., Matlab adds gpgpu support, [17] Jeffrey M. Squyres, Processes, processors, and MPI, oh my!, ClusterWorld Magazine, MPI Mechanic Column, vol. 2, no. 1, January [18] Fast k nearest neighbor search using GPU, 2008.

5 Fig. 3. Proceso de desarrollo del compilador MATLAB para una aplicación MPI + CUDA. coment Solo el nodo root tiene two GPUs if(myrank==0) GPUDevice=1; else GPUDevice=0; [ value, indx ] = knn cuda with indexes (ref,query,1, GPUDevice); % Recoge soluciones if(myrank==0) comment reserva espacio para todas las soluciones soluproc=zeros(1,size w); coment para cada proceso, si no soy yo mismo, coge el vecino mas cercano for l=1:size w-1, soluproc(l)=mpimex( Recv,1, MPI DOUBLE,l,202, MPI COMM WORLD, IGNORE ); comment Calcula los vecinos mas cercanos [ value, indx ] = knn cuda with indexes (X(soluProc,:),query,1, GPUDevice); else MPImex( S,indx, 1, MPI DOUBLE, 0, 202, MPI COMM WORLD ); Fig. 4. Ejemplo donde el nodo con los procesos 0 y 1 selecciona la GPU mediante un parámetro.

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY EL CLUSTER

Más detalles

Ingeniero en Informática

Ingeniero en Informática UNIVERSIDAD DE ALMERÍA Ingeniero en Informática CLÚSTER DE ALTO RENDIMIENTO EN UN CLOUD: EJEMPLO DE APLICACIÓN EN CRIPTOANÁLISIS DE FUNCIONES HASH Autor Directores ÍNDICE 1. Introducción 2. Elastic Cluster

Más detalles

Soluciones para entornos HPC

Soluciones para entornos HPC Dr.. IT Manager / Project Leader @ CETA-Ciemat abelfrancisco.paz@ciemat.es V Jornadas de Supercomputación y Avances en Tecnología INDICE 1 2 3 4 HPC Qué? Cómo?..................... Computación (GPGPU,

Más detalles

CAR. http://acarus.uson.mx/cursos2013/car.htm

CAR. http://acarus.uson.mx/cursos2013/car.htm CAR http://acarus.uson.mx/cursos2013/car.htm Sistemas de CAR en la UNISON Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Aracely Dzul Campos Daniel Mendoza Camacho Yessica Vidal Quintanar

Más detalles

Arquitecturas GPU v. 2013

Arquitecturas GPU v. 2013 v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,

Más detalles

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013 FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación

Más detalles

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe Linux Week PUCP 2006 Computación de Alto Rendimiento en Linux Richard Miguel San Martín rmiguel@senamhi.gob.pe Agenda Computación Científica Computación Paralela High Performance Computing Grid Computing

Más detalles

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14 High Performance Computing y Big Data en AWS +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 212 1 / 14 High Performance Computing High Performance Computing (HPC) Afonta grandes problemas empresariales,

Más detalles

High Performance Computing and Architectures Group

High Performance Computing and Architectures Group HPCA Group 1 High Performance Computing and Architectures Group http://www.hpca.uji.es Universidad Jaime I de Castellón ANACAP, noviembre de 2008 HPCA Group 2 Generalidades Creado en 1991, al mismo tiempo

Más detalles

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES VOLUMEN II: ESPECIFICACIONES TÉCNICAS ADQUISICIÓN DE UNA INFRAESTRUCTURA DE COMPUTACIÓN

Más detalles

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1.

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1. Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda 1. Resumen Se presentan los resultados del diseño y la construcción

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

Seminario II: Introducción a la Computación GPU

Seminario II: Introducción a la Computación GPU Seminario II: Introducción a la Computación GPU CONTENIDO Introducción Evolución CPUs-Evolución GPUs Evolución sistemas HPC Tecnologías GPGPU Problemática: Programación paralela en clústers heterogéneos

Más detalles

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Linux s Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Eterna necesidad Desde la invención de las computadoras el hombre constantemente ha mantenido

Más detalles

Computacion de Alto Performance

Computacion de Alto Performance Computacion de Alto Performance Abraham Zamudio Abraham Zamudio Computacion de Alto Performance 1/47 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Cloud Computing Systems for Cracking. Elías Grande Rubio Alberto Pérez Reyes Jesús Javier Sánchez Villamor

Cloud Computing Systems for Cracking. Elías Grande Rubio Alberto Pérez Reyes Jesús Javier Sánchez Villamor Cloud Computing Systems for Cracking Elías Grande Rubio Alberto Pérez Reyes Jesús Javier Sánchez Villamor Agenda Problemática John The Ripper THC-Hydra Objetivos Arquitectura de la solución Ataque Cloud

Más detalles

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero Taller Computación Altas Prestaciones Pedro Antonio Varo Herrero Antes de nada!! Cosas a instalar: OpenMPI: http://www.open-mpi.org/software/ompi/v1.8/downloads/openmpi-1.8.3.tar.gz Mpi4py: pip install

Más detalles

Replicación de datos en PVFS2 para conseguir tolerancia a fallos

Replicación de datos en PVFS2 para conseguir tolerancia a fallos Replicación de datos en PVFS2 para conseguir tolerancia a fallos Erik Nieto Tovar 1, Raúl Hernández Palacios 1, Hugo E. Camacho Cruz 1, Antonio F. Díaz García 1, Mancia Anguita López 1, Julio Ortega Lopera

Más detalles

Modelo de aplicaciones CUDA

Modelo de aplicaciones CUDA Modelo de aplicaciones CUDA Utilización de GPGPUs: las placas gráficas se utilizan en el contexto de una CPU: host (CPU) + uno o varios device o GPUs Procesadores masivamente paralelos equipados con muchas

Más detalles

Computación Híbrida, Heterogénea y Jerárquica

Computación Híbrida, Heterogénea y Jerárquica Computación Híbrida, Heterogénea y Jerárquica http://www.ditec.um.es/ javiercm/curso psba/ Curso de Programación en el Supercomputador Ben-Arabí, febrero-marzo 2012 Organización aproximada de la sesión,

Más detalles

Metodología para Analizar y Evaluar los Sistemas de Entrada/Salida Paralelos

Metodología para Analizar y Evaluar los Sistemas de Entrada/Salida Paralelos Metodología para Analizar y Evaluar los Sistemas de Entrada/Salida Paralelos Sandra Méndez, Dolores Rexachs y Emilio Luque Departamento de Arquitectura de Computadores y Sistemas Operativos Universitat

Más detalles

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca A.Zamudio M. Milla Contenido de la Presentación 1 Radio Observatorio de Jicamarca 2 3 4 5 6 Índice

Más detalles

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores CLUSTERS Antonio Antiñolo Navas Antonio.Antinolo@uclm.es 1 Arquitectura e Ingeniería de Computadores Profesor: Serafín Benito Santos ESI-UCLM Índice 1. Introducción. 2. Clasificación. 3. Ventajas y Desventajas.

Más detalles

Utilización de la programación paralela en procesadores gráficos para el cálculo científico.

Utilización de la programación paralela en procesadores gráficos para el cálculo científico. Utilización de la programación paralela en procesadores gráficos para el cálculo científico. EMNO 2013 Rolando E. Rodríguez Fernández Medicina Computacional, Instituto de Nefrología. y Facultad de Física,

Más detalles

Plataformas Actuales para Computación de Alto Rendimiento

Plataformas Actuales para Computación de Alto Rendimiento Plataformas Actuales para Computación de Alto Rendimiento Gilberto Díaz gilberto@ula.ve Centro de Cálculo Científico (CeCalCULA) Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción: arquitecturas

Más detalles

GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC

GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC GRUPOS DE INVESTIGACIÓN EN ARQUITECTURA DE COMPUTADORES GAC-USC y GAC-UDC GAC-USC: Departamento de Electrónica y Computación http://www.ac.usc.es GAC-UDC: Departamento de Electrónica y Sistemas http://gac.des.udc.es

Más detalles

Recursos y servicios HPC en el BIFI

Recursos y servicios HPC en el BIFI Recursos y servicios HPC en el BIFI Guillermo Losilla Anadón Responsable grupo HPC e infraestructuras de computación del BIFI guillermo@bifi.es Indice Grupo HPC@BIFI Servicio de cálculo y almacenamiento

Más detalles

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Enrique S. Quintana-Ortí quintana@icc.uji.es High Performance Computing & Architectures

Más detalles

Computación paralela y distribuida

Computación paralela y distribuida Computación paralela y distribuida MSC-0302 Nombre de la asignatura: Computación paralela y distribuida Línea de trabajo: Tecnologías web Tiempo de dedicación del estudiante a las actividades de: DOC TIS

Más detalles

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SUPERCÓMPUTO FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC ( ) APOBL

Más detalles

270150 - TGA - Tarjetas Gráficas y Aceleradores

270150 - TGA - Tarjetas Gráficas y Aceleradores Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2014 GRADO EN INGENIERÍA INFORMÁTICA

Más detalles

SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid

SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid SBDA-GRID: implementación de un servicio de base de datos en una arquitectura grid Nancy Ocotitla Rojas, Axel E. Moreno Cervantes, Rogelio Castro González Escuela Superior de Cómputo-IPN, Av. Juan de Dios

Más detalles

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,

Más detalles

GANETEC SOLUTIONS HPC Farmacéuticas

GANETEC SOLUTIONS HPC Farmacéuticas GANETEC SOLUTIONS HPC Farmacéuticas La integración de tecnologías HPC en el sector Farmacéutico y de la Bioinformática ha permitido grandes avances en diversos campos. NUESTRA VISIÓN Estas nuevas posibilidades

Más detalles

Procesadores Gráficos: OpenCL para programadores de CUDA

Procesadores Gráficos: OpenCL para programadores de CUDA Procesadores Gráficos: para programadores de CUDA Curso 2011/12 David Miraut david.miraut@urjc.es Universidad Rey Juan Carlos April 24, 2013 Indice Estándar Modelo de de El lenguaje programa de Inicialización

Más detalles

Utilización de Matlab en clusters y grids

Utilización de Matlab en clusters y grids Marco Bonilla, Gabriela Gangotena e Iván Bernal Departamento de Electrónica Telecomunicaciones y Redes de la Información (DETRI) mbonilla2109@gmail.com Resumen Con el fin de disponer de capacidad computacional,

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET LA PLATAFORMA GOOGLE CLOUD PLATFORM. GOOGLE APP ENGINE Pedro A. Castillo Valdivieso Universidad de Granada http://bit.ly/unia2014

Más detalles

Computación Científica de Alto Desempeño

Computación Científica de Alto Desempeño Computación Científica de Alto Desempeño Un acercamiento pragmático (sólo es verdadero aquello que funciona) Edison Montoya Benemérita Universidad Autónoma de Puebla Febrero 4 de 2015 Computación en Paralelo

Más detalles

Múltiples GPU (y otras chauchas)

Múltiples GPU (y otras chauchas) Múltiples GPU (y otras chauchas) Clase 16, 21/11/2013 http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC Motivación No desperdiciar

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU Computación de Propósito General en Unidades de Procesamiento Gráfico () R. Bayá, E. Dufrechou, P. Ezzattiy M. Pedemonte Clase 1 Introducción Contenido Un poco de historia El pipeline gráfico Tarjetas

Más detalles

introducción Simulación de flujos de fluidos utilizando grillas de de cómputo resumen

introducción Simulación de flujos de fluidos utilizando grillas de de cómputo resumen resumen Dentro de los procesos académicos de la Universidad de San Buenaventura se adelantan investigaciones en el Área de Diseño de Prototipos de Aviones, mediante simulaciones computacionales enfocadas

Más detalles

Introducción a la Computación Distribuida y Condor

Introducción a la Computación Distribuida y Condor Introducción a la Computación E-Ciencia Supercomputación Cluster Tecnologías de Cluster y su Clasificación Servicios Importantes para Clusters Administración y Planificación de Tareas en Clusters Condor

Más detalles

Requisitos Técnicos de Cluster Heterogéneo.

Requisitos Técnicos de Cluster Heterogéneo. Requisitos Técnicos de Cluster Heterogéneo. Expediente CONSU02010018OP de suministro de un sistema de computación heterogéneo con procesadores gráficos y de propósito general para investigación para el

Más detalles

Mgter. Alejandro Ramos

Mgter. Alejandro Ramos Mgter. Alejandro Ramos Servidores Centralizados de Ficheros. Sistemas de Base de Datos. Sistemas Distribuidos. Evolución de la Tecnología Cliente Servidor 1 2 3 4 5 1982 1986 1990 1995 1995 - actualmente

Más detalles

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS MAURO CANABÉ SERGIO NESMACHNOW Centro de Cálculo, Facultad de Ingeniería Universidad de la República, Uruguay GPU IMPLEMENTATIONS

Más detalles

Talleres CLCAR. CUDA para principiantes. Título. Mónica Liliana Hernández Ariza, SC3UIS-CRC NVIDIA Research Center monicalilianahernandez8@gmail.

Talleres CLCAR. CUDA para principiantes. Título. Mónica Liliana Hernández Ariza, SC3UIS-CRC NVIDIA Research Center monicalilianahernandez8@gmail. a CUDA para principiantes Mónica Liliana Hernández Ariza, SC3UIS-CRC NVIDIA Research Center monicalilianahernandez8@gmail.com Tener un primer encuentro práctico con la programación en CUDA para personas

Más detalles

Diferenciadores entre ediciones de Bases de Datos Oracle Octubre de 2011. Standard Edition One. Express Edition. Standard Edition

Diferenciadores entre ediciones de Bases de Datos Oracle Octubre de 2011. Standard Edition One. Express Edition. Standard Edition Diferenciadores entre ediciones de Bases de Datos Oracle Octubre de 2011 Características Express Standard One Standard Enterprise Procesamiento Máximo 1 CPU 2 Sockets 4 Sockets Sin límite Memoria RAM Máxima

Más detalles

Equipamiento disponible

Equipamiento disponible PCI 00 Acción Preparatoria Computación Avanzada en Aplicaciones Biomédicas CaaB (High Performance Computing applied to Life Sciences) Equipamiento disponible Participantes Universidad de Málaga, España

Más detalles

PLATAFORMA CLÚSTER BASADA EN CENTOS

PLATAFORMA CLÚSTER BASADA EN CENTOS PLATAFORMA CLÚSTER BASADA EN CENTOS Área de conocimiento: Redes y Telecomunicaciones Raúl Hernández Palacios, Felipe de Jesús Núñez Cárdenas, Javier Hervert Hernández, Miriam De la Cruz Bautista. Área

Más detalles

Tarjetas gráficas para acelerar el cómputo complejo

Tarjetas gráficas para acelerar el cómputo complejo LA TECNOLOGÍA Y EL CÓMPUTO AVANZADO Tarjetas gráficas para acelerar el cómputo complejo Tarjetas gráficas para acelerar el cómputo complejo Jorge Echevarría * La búsqueda de mayor rendimiento A lo largo

Más detalles

Introducción al Cluster

Introducción al Cluster Centro de Teleinformática y Producción Industrial - Regional Cauca Pág. 1 de 11 Nombre del Introducción al Cluster Historial Fecha Razón de cambio (s) Autor(es) 26 / 10 /2011 Documento Inicial, Primer

Más detalles

PCI 2010 Acción Preparatoria. Computación Avanzada en Aplicaciones Biomédicas. (High Performance Computing applied to Life Sciences)

PCI 2010 Acción Preparatoria. Computación Avanzada en Aplicaciones Biomédicas. (High Performance Computing applied to Life Sciences) PCI 2010 Acción Preparatoria Computación Avanzada en Aplicaciones Biomédicas CaaB (High Performance Computing applied to Life Sciences) Descripción general Participantes Universidad de Málaga, España CIEMAT,

Más detalles

Aceleradores gráficos. Su impacto en el bus del sistema.

Aceleradores gráficos. Su impacto en el bus del sistema. Aceleradores gráficos. Su impacto en el bus del sistema. Conceptos básicos Controladora de video tradicional en modo gráfico Buffer de video en placas ISA se ubica en el rango de posiciones de memoria

Más detalles

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO TUTORIAL : COMPUTACIÓN de ALTO DESEMPEÑO SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Computadores paralelos

Más detalles

Conceptos de Q-flow Enterprise Edition

Conceptos de Q-flow Enterprise Edition Q-flow 2.2 Código de Manual: Qf22008ESP Versión del Manual: 1.1 Última revisión: 17/3/2006 Se aplica a: Q-flow 2.2 Enterprise Edition Conceptos de Q-flow Enterprise Edition Qf22008ESP v1.1 Q-flow Conceptos

Más detalles

Mosix2: La versión grid de Mosix para Linux-2.6

Mosix2: La versión grid de Mosix para Linux-2.6 Mosix2: La versión grid de Mosix para Linux-2.6 Juan P. Caballero Lionel Gutierrez Javier Echaiz Jorge R. Ardenghi Laboratorio de Investigación de Sistemas Distribuidos (LISiDi) Departamento de Ciencias

Más detalles

Paralelización de la factorización LDL T usando el lenguaje de programación paralela ZPL

Paralelización de la factorización LDL T usando el lenguaje de programación paralela ZPL REVISTA INGENIERÍA UC. Vol. 15, N o 2, 72-80, 2008 Paralelización de la factorización LDL T usando el lenguaje de programación paralela ZPL Edwin Vargas, Enrique Flores, Demetrio Rey Lago Instituto de

Más detalles

Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf

Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf Infraestructura CloudPYME Presentación Infraestructura Computación CloudPYME- Versión 1.0 http://support.cloudpyme.eu/doc/cp_platform_v1.0.pdf ÍNDICE Arquitectura CloudPyme V1.0 Usuario/Cliente/Empresa

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 1 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD 1 El bien a adquirir se describe a continuación y consiste de un cúmulo de

Más detalles

Apéndice A: Características de las Redes Locales

Apéndice A: Características de las Redes Locales Apéndice A: Características de las Redes Locales En este apéndice se muestran las principales características de hardware y software de las redes locales y de las computadoras que las componen y que se

Más detalles

Introducción. Por último se presentarán las conclusiones y recomendaciones pertinentes.

Introducción. Por último se presentarán las conclusiones y recomendaciones pertinentes. Introducción En el presente documento se explicarán las consideraciones realizadas para implementar la convolución bidimensional en la arquitectura CUDA. En general se discutirá la metodología seguida

Más detalles

Mendieta. Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC WHPC13

Mendieta. Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC WHPC13 Mendieta Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC 1 Antes que nada ssh user@200.16.18.210 2 Especificaciones - Nodo Supermicro 1027GR-TRF 1U de altura Dual socket 2011 Fuentes de 1820W

Más detalles

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales *

Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales * Implementación de una Malla Computacional, comparación de rendimiento de MPI sobre una malla vs métodos tradicionales * Profesor Patrocinante: Dr. Pablo Saez G. ** Profesor Co-patrocinante: Dr. Jaime Araneda

Más detalles

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas Clusters en Linux * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net * FACYT-UC Computación ** IUPSM Sistemas www.vaslibre.org.ve Agenda Motivación Definiciones Cluster Beowulf

Más detalles

Kepler. 1. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes (1571-1630)

Kepler. 1. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes (1571-1630) Índice de contenidos [25 diapositivas] Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga 1. Presentación de la arquitectura [3] 2. Los cores y su organización [7]

Más detalles

GUÍA DE USO CLUSTER CICA

GUÍA DE USO CLUSTER CICA 1. Esquema General 2. Conexión 3. Sistema de Colas 4. Compilación de aplicaciones 5. Aplicaciones disponibles 6. Almacenamiento compartido 7. Monitorización de tareas GUÍA DE USO CLUSTER CICA 1. Esquema

Más detalles

Programación en Paralelo con MPI en Clusters Linux

Programación en Paralelo con MPI en Clusters Linux Programación en Paralelo con MPI en Clusters Linux Francisco Javier Rodríguez Arias 13 de marzo de 2006 Problema y Motivación En física se requiere hacer muchos cálculos. Para eso se hacen programas de

Más detalles

Arquitectura: Clusters

Arquitectura: Clusters Universidad Simón Bolívar Arquitectura: Clusters Integrantes: - Aquilino Pinto - Alejandra Preciado Definición Conjuntos o conglomerados de computadoras construidos mediante la utilización de hardware

Más detalles

Integración de Computación Heterogénea con Hadoop para Cloud Computing

Integración de Computación Heterogénea con Hadoop para Cloud Computing Integración de Computación Heterogénea con Hadoop para Cloud Computing Nelson Rodríguez 1, María Murazzo 2, Daniela Villafañe 3, Maximiliano Alves 4, Diego Medel 5 Departamento e Instituto de Informática

Más detalles

Heterogénea y Jerárquica

Heterogénea y Jerárquica Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida

Más detalles

III. INTRODUCCIÓN AL CLOUD COMPUTING

III. INTRODUCCIÓN AL CLOUD COMPUTING III. INTRODUCCIÓN AL CLOUD COMPUTING Definición (I) Qué es el cloud computing? Nuevo paradigma de computación distribuida Provee un servicio de acceso a recursos computacionales: servidores, almacenamiento,

Más detalles

Gestor de Colas SGE. 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON

Gestor de Colas SGE. 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON Gestor de Colas SGE 1. Qué es? 2. Configuración actual en CICA 3. Comandos 4. Trabajos Paralelos 5. Entorno gráfico QMON 1. Qué es? SGE (Sun Grid Engine) es un gestor de colas, realizado por Sun Microsystems.

Más detalles

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf D Elía, Dalcin, Sarraf, López, Battaglia, Rodríguez, Sonzogni Centro de Investigación de Métodos Computacionales (CIMEC) (new

Más detalles

Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Palabras Clave:

Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Palabras Clave: Capacidad de procesamiento del compilador Python para el Sistema Operativo Windows y Linux Stiven Unsihuay, Paulo Pereira, Norma León unsihuay_carlos@hotmail.com, paulopereiraa10@gmail.com, nleonl@usmp.pe

Más detalles

Laboratorio de Procesamiento Paralelo MultiCluster accesible vía v a WEB

Laboratorio de Procesamiento Paralelo MultiCluster accesible vía v a WEB FACULTAD DE INFORMÁTICA UNIVERSIDAD NACIONAL DE LA PLATA Laboratorio de Procesamiento Paralelo MultiCluster accesible vía v a WEB Tesina de Licenciatura en Sistemas Autor: Adrián Pousa Director: Armando

Más detalles

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) Carlos Bernal, Ana Silva, Marceliano Marrón, Juan Antonio Ortega, Claudio J. Arjona Área de HPC Centro Informático Científico de

Más detalles

picojava TM Características

picojava TM Características picojava TM Introducción El principal objetivo de Sun al introducir Java era poder intercambiar programas ejecutables Java entre computadoras de Internet y ejecutarlos sin modificación. Para poder transportar

Más detalles

Clusters de Alto Rendimiento

Clusters de Alto Rendimiento Clusters de Alto Rendimiento Contenido: M. en A. Iliana Gómez Zúñiga iliana.gomez@redudg.udg.mx Expositor: L.S.I. Virgilio Cervantes Pérez virgilio@cencar.udg.mx Diseño: Lic. Genaro Ramirez genaro.ramirez@redudg.udg.mx

Más detalles

Módulo: Modelos de programación para Big Data

Módulo: Modelos de programación para Big Data Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data

Más detalles

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co Universidad Pedagógica y Tecnológica de Colombia Colombia Amézquita-Mesa, Diego Germán; Amézquita-Becerra, Germán; Galindo-Parra, Omaira

Más detalles

Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011

Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011 Módulo 1. Fundamentos de Computadores Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011 1 CONTENIDO Tema 1. Introducción

Más detalles

Procesamiento de imágenes en GPUs mediante CUDA. I. Introducción. Indice de contenidos

Procesamiento de imágenes en GPUs mediante CUDA. I. Introducción. Indice de contenidos Procesamiento de imágenes en GPUs mediante CUDA Manuel Ujaldón Martínez Nvidia CUDA Fellow Departamento de Arquitectura de Computadores Universidad de Málaga Indice de contenidos 1. Introducción. [2] 2.

Más detalles

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Maribel Castillo, Francisco D. Igual, Rafael Mayo, Gregorio Quintana-Ortí, Enrique S. Quintana-Ortí, Robert van de Geijn Grupo

Más detalles

DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC

DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC DESKTOP GRID Y COMPUTACIÓN VOLUNTARIA: INTRODUCCIÓN A LA TECNOLOGÍA BOINC José Luis Guisado Lizar http://cum.unex.es/profes/profes/jlguisado Grupo de Evolución Artificial (GEA) Universidad de Extremadura

Más detalles

Tema 1. Introducción a JAVA

Tema 1. Introducción a JAVA Tema 1. Introducción a JAVA Historia Características Plataforma Java Entorno de desarrollo Ejemplo: Hola mundo Estructura general de un programa Java 1 Historia de Java (i) Surge en 1991: Sun Microsystems

Más detalles

Sun Grid Engine en entornos Grid. Isabel Campos BIFI

Sun Grid Engine en entornos Grid. Isabel Campos BIFI Sun Grid Engine en entornos Grid Isabel Campos BIFI Sun Grid Engine en entornos Grid DESARROLLO DE LA CHARLA El Proyecto Sun Grid Engine (SGE) Instalación de SGE en clusters Uso de SGE en entornos GRID

Más detalles

Recursos computacionales y servicios

Recursos computacionales y servicios Recursos computacionales y servicios Grupo ArTeCS R. Cano, F. Mon, J.M. Roldán, R. Sampedro, J.C. Sáez ArTeCS 5 de julio de 2013 Contenido 1 Introducción 2 Infraestructura 3 Servicios 4 Servicios en Desarrollo

Más detalles

Introducción HPC. Curso: Modelización y simulación matemática de sistemas. Esteban E. Mocskos (emocskos@dc.uba.ar) Escuela Complutense Latinoamericana

Introducción HPC. Curso: Modelización y simulación matemática de sistemas. Esteban E. Mocskos (emocskos@dc.uba.ar) Escuela Complutense Latinoamericana Curso: Modelización y simulación matemática de sistemas Metodología para su implementación computacional Introducción HPC Esteban E. Mocskos (emocskos@dc.uba.ar) Facultad de Ciencias Exactas y Naturales,

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Copyright 2006 Linalco Consulting, S.L. Linalco Consulting, S.L., autor de este documento,

Más detalles

Introducción. TEMA 3: Clusters de Computadores Personales

Introducción. TEMA 3: Clusters de Computadores Personales Introducción TEMA 3: Clusters de Computadores Personales Laboratorio de Arquitecturas Avanzadas de Computadores 5º de Ingeniería Superior de Informática 2008/09 Alberto Sánchez alberto.sanchez@urjc.es

Más detalles

UNIVERSIDAD INDUSTRIAL DE SANTANDER DIVISIÓN DE SERVICIOS DE INFORMACIÓN PLIEGO DE CONDICIONES PRELIMINARES

UNIVERSIDAD INDUSTRIAL DE SANTANDER DIVISIÓN DE SERVICIOS DE INFORMACIÓN PLIEGO DE CONDICIONES PRELIMINARES UNIVERSIDAD INDUSTRIAL DE SANTANDER DIVISIÓN DE SERVICIOS DE INFORMACIÓN PLIEGO DE CONDICIONES PRELIMINARES VOLUMEN II: ESPECIFICACIONES TÉCNICAS LICITACIÓN PÚBLICA No. 058 DE 2010 ACTUALIZACIÓN DE COMPUTADORES

Más detalles

Computación heterogénea y su programación. 1. Introducción a la computación heterogénea. Indice de contenidos [38 diapositivas]

Computación heterogénea y su programación. 1. Introducción a la computación heterogénea. Indice de contenidos [38 diapositivas] Computación heterogénea y su programación Manuel Ujaldón Nvidia CUDA Fellow Departmento de Arquitectura de Computadores Universidad de Málaga (España) Indice de contenidos [38 diapositivas] 1. Introducción

Más detalles

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez

Supercómputo. Oscar Rafael García Regis Enrique Cruz Martínez Supercómputo Oscar Rafael García Regis Enrique Cruz Martínez 2003-I Oscar Rafael García Regis Laboratorio de Dinámica No Lineal Facultad de Ciencias, UNAM Enrique Cruz Martínez Dirección General de Servicios

Más detalles

Equipos de Cálculo LinuxVixion basados en GPU. Sistemas de Modelización Molecular Certificados para Amber Molecular Dynamics

Equipos de Cálculo LinuxVixion basados en GPU. Sistemas de Modelización Molecular Certificados para Amber Molecular Dynamics Equipos de Cálculo LinuxVixion basados en GPU Sistemas de Modelización Molecular Certificados para Amber Molecular Dynamics Madrid, 2014 www.linuxvixion.com 1. Presentación LinuxVixion, S.L, compañía española

Más detalles

Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de

Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de Plataformas Tecnológicas y Requerimientos Técnicos de las Aplicaciones de Departamento de Sistemas 2014 Página 1 INDICE Introducción 3 Requisitos Generales del Entorno 3 Requisitos Generales de las Aplicaciones

Más detalles

EXPERIMENTOS SOBRE LA CARGA DE RED EN SISTEMAS DISTRIBUIDOS DE RECUPERACIÓN DE INFORMACIÓN

EXPERIMENTOS SOBRE LA CARGA DE RED EN SISTEMAS DISTRIBUIDOS DE RECUPERACIÓN DE INFORMACIÓN EXPERIMENTOS SOBRE LA CARGA DE RED EN SISTEMAS DISTRIBUIDOS DE RECUPERACIÓN DE INFORMACIÓN Fidel Cacheda Seijo, Diego Fernández Iglesias y Rafael López García Departamento de Tecnologías de la Información

Más detalles