Comunicaciones Escalables en Memoria Compartida para Paso de Mensajes en Java

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Comunicaciones Escalables en Memoria Compartida para Paso de Mensajes en Java"

Transcripción

1 Comunicaciones Escalables en Memoria Compartida para Paso de Mensajes en Java Sabela Ramos*, Guillermo L. Taboada, Juan Touriño, Ramón Doallo Grupo de Arquitectura de Computadores, Universidade de A Coruña (España) {sramos,taboada,juan,doallo}@udc.es XXI Jornadas de Paralelismo (JP2011), La Laguna

2 Outline 1 Introducción Java para HPC 2 F-MPJ: Fast MPJ Detalles de Implementación 3 Configuración Experimental Micro-Benchmark de Primitivas MPJ 4

3 Java para HPC Java para HPC Características: Built-in networking Built-in multi-threading Portable, independiente de la plataforma Orientado a Objetos Ampliamente extendido Programación Paralela en Java: Threads en Memoria Compartida Java Sockets Java RMI Message-Passing in Java (MPJ)

4 Java para HPC Programación en Memoria Compartida Lenguajes Compilados (C/Fortran): MPICH2: ssm, shm, sshm. MPICH2: Nemesis. POSIX threads OpenMP Java: Java Threads Framework de Concurrencia (ThreadPools, Tasks...) Parallel Java (PJ) Java OpenMP (JOMP and JaMP)

5 Paso de Mensajes en Java Java para HPC El Paso de Mensajes es el principal modelo de programación HPC. Aproximaciones de Implementación RMI. Wrapper a una biblioteca nativa vía JNI. (e.g., bibliotecas MPI: OpenMPI, MPICH). Sockets. APIs implementadas: PVM-like. mpijava. MPJ. Otras.

6 Java para HPC Pure Java Impl. Socket impl. Java IO Java NIO Communication support Myrinet InfiniBand Shared Memory mpijava 1.2 API JGF MPJ Other APIs MPJava Jcluster Parallel Java mpijava P2P-MPI MPJ Express MPJ/Ibis JMPI F-MPJ

7 F-MPJ: Fast MPJ Detalles de Implementación Dispositivos de Comunicación en F-MPJ MPJ Applications F MPJ Library device layer omxdev ibvdev niodev/iodev smpdev JVM JNI Java Sockets Java Threads native comms Open MX IBV TCP/IP Myrinet/Ethernet InfiniBand Ethernet Shared Memory

8 F-MPJ: Fast MPJ Detalles de Implementación xxdev API. Interfaz pública de la clase xxdev.device public abstract class Device { s t a t i c public Device newinstance ( S t r i n g deviceimpl ) ; public i n t [ ] i n i t ( S t r i n g [ ] args ) ; public i n t i d ( ) ; public void f i n i s h ( ) ; public Request isend ( Object buf, i n t dst, i n t tag ) ; public Request i r e c v ( Object buf, i n t src, i n t tag, Status s t t s ) ; public void send ( Object buf, i n t dst, i n t tag ) ; public Status recv ( Object buf, i n t src, i n t tag ) ; public Request issend ( Object buf, i n t dst, i n t tag ) ; public void ssend ( Object buf, i n t dst, i n t tag ) ; public Status iprobe ( i n t src, i n t tag, i n t context ) ; public Status probe ( i n t src, i n t tag, i n t context ) ; public Request peek ( ) ; }

9 Optimización del Rendimiento: F-MPJ: Fast MPJ Detalles de Implementación No hay capa de buffering para tipos primitivos. Biblioteca de algoritmos multi-core aware para operaciones colectivas. Selección del algoritmo en función del tamaño de mensaje y el número de procesos.

10 F-MPJ: Fast MPJ Detalles de Implementación Algoritmos Multi-core Aware para Operaciones Colectivas: Operación Barrier Bcast Scatter/v Gather/v Allgather/v Alltoall/v Reduce Allreduce Reduce-scatter Scan Algoritmos BT, Gather+Bcast, BTe, Gather+Bcast Optimized MST, NBFT, BFT MST, NBFT MST, NBFT, NB1FT, BFT NBFT, NBBDE, BBKT, NBBKT, BTe, Gather + Bcast NBFT, NB1FT, NB2FT, BFT MST, NBFT, BFT NBFT, BBDE, NBBDE, BTe, Reduce + Bcast BBDE, NBBDE, BBKT, NBBKT, Reduce + Scatter NBFT, OneToOne BT: Binomial Tree. MST: Minimun-Spanning Tree. FT: Flat Tree. BDE: BiDirectional Exchange. BKT: BucKeT. *e: extended. NB*: Non-Blocking. B*:Blocking.

11 Cargadores de Clase F-MPJ: Fast MPJ Detalles de Implementación Cargador de Clase Propio Espacios de nombres aislados para cada thread en las capas superiores. Variables estáticas privadas. Abstracción de procesos sobre threads. Un Cargador de Clase a medida para cada thread. La JVM identifica cada clase cargada por su nombre cualificado completo y el cargador de clase. Grupo de clases compartidas para la comunicación entre threads. Transferencias a través de memoria compartida.

12 Colas de Mensajes F-MPJ: Fast MPJ Detalles de Implementación Send (data) Recv (data) 6 Thread 0 data UnexpectedRecvQueue UnexpectedRecvQueue id data? 4 id Thread 1 1 id data PostedRecvQueue 5 3 PostedRecvQueue X? 2

13 Colas de Mensajes F-MPJ: Fast MPJ Detalles de Implementación Send (data) Recv (data) Thread 0 data UnexpectedRecvQueue UnexpectedRecvQueue X? 1 id Thread 1 PostedRecvQueue 3 2 PostedRecvQueue id? id data

14 Colas de Mensajes F-MPJ: Fast MPJ Detalles de Implementación Serialización Serializable es una interfaz más flexible que Cloneable. Es necesario que el receptor sea el que realiza la deserialización. Relevante en comunicaciones no-bloqueantes. Método de resolución de clases a medida para manejar el aislamiento del espacio de nombres. Cada thread debe cargar sus clases con su cargador local. El uso del cargador del sistema provocaría una excepción.

15 Configuración Experimental: Configuración Experimental Micro-Benchmark de Primitivas MPJ Nehalem 2xIntel Xeon 5520 Quad-core Nehalem CPU (8 cores). Magny Cours 4xAMD 12-core Magny Cours CPU (48 cores). 2 x 4 x 8 GB RAM. Linux, Sun JDK 1.6, gcc v MPJ Express 0.38, OpenMPI v1.3.3, MVAPICH2 r GB RAM. Linux, Sun JDK 1.6, gcc v MPJ Express 0.38, Intel MPI v , OpenMPI v1.4.2.

16 Rendimiento Punto a Punto Configuración Experimental Micro-Benchmark de Primitivas MPJ Latency (µs) Point-to-Point Java Communication Performance (Nehalem) F-MPJ (smpdev) MPJE (smpdev) MVAPICH2 OpenMPI K 4K 16K 64K 256K 1M 4M 16M Message Size (Bytes) Bandwidth (Gbps)

17 Rendimiento Punto a Punto Configuración Experimental Micro-Benchmark de Primitivas MPJ Point-to-point Java Communication Performance (Magny Cours) Latency (µs) F-MPJ (smpdev) MPJE (smpdev) IntelMPI K 4K 16K 64K 256K 1M 4M 16M Message size (Bytes) Bandwidth (Gbps)

18 Configuración Experimental Micro-Benchmark de Primitivas MPJ Rendimiento de Operaciones Colectivas Aggregated Bandwidth (Gbps) F MPJ (smpdev) MPJE (smpdev) MVAPICH2 OpenMPI Broadcast on Nehalem (8 cores) 0 1K 4K 16K 64K 256K 1M 4M 16M Message Size (Bytes)

19 Configuración Experimental Micro-Benchmark de Primitivas MPJ Rendimiento de Operaciones Colectivas Aggregated Bandwidth (Gbps) Broadcast on Magny Cours (48 Cores) F MPJ (smpdev) MPJE (smpdev) IntelMPI 4 0 1K 4K 16K 64K 256K 1M 4M 16M Message Size (Bytes)

20 Configuración Experimental Micro-Benchmark de Primitivas MPJ NPB NAS Parallel Benchmarks Magny Cours (4, 8, 16 y 32 cores). Cuadro: NPB performance (in MOPS) on one core CG FT IS MG Java C/Fortran

21 Configuración Experimental Micro-Benchmark de Primitivas MPJ F MPJ (smpdev) Java Threads OpenMPI OpenMP CG Class C Speedup Number of Cores

22 Configuración Experimental Micro-Benchmark de Primitivas MPJ Speedup F MPJ (smpdev) Java Threads OpenMPI OpenMP FT Class C Number of Cores

23 Configuración Experimental Micro-Benchmark de Primitivas MPJ F MPJ (smpdev) Java Threads OpenMPI OpenMP IS Class C Speedup Number of Cores

24 Configuración Experimental Micro-Benchmark de Primitivas MPJ F MPJ (smpdev) Java Threads OpenMPI OpenMP MG Class C Speedup Number of Cores

25 Preguntas Java es una alternativa interesante para HPC en procesadores multi-core. Multithreading. Smpdev permite aprovechar el multithreading de manera transparente a través de una API de paso de mensajes. Abstracción de procesos MPJ sobre threads. Transferencias a través de memoria compartida. Códigos portables y ejecutables en sistemas de memoria distribuida. La evaluación de rendimiento muestra que se obtienen resultados comparables a los de MPI.

26 Preguntas Preguntas? COMUNICACIONES ESCALABLES EN MEMORIA COMPARTIDA PARA PASO DE MENSAJES EN JAVA JP2011 Sabela Ramos Garea Grupo de Arquitectura de Computadores, Universidade de A Coruña

EL lenguaje de programación Java es ampliamente. de mecanismos de comunicación eficientes

EL lenguaje de programación Java es ampliamente. de mecanismos de comunicación eficientes Mecanismos de Comunicación Eficientes en Redes de Altas Prestaciones para Bibliotecas de Paso de Mensajes en Java Roberto R. Expósito, Guillermo L. Taboada, Juan Touriño y Ramón Doallo 1 Resumen Este trabajo

Más detalles

JAVA es una alternativa emergente en Computación. Comunicaciones Escalables en Memoria Compartida para Paso de Mensajes en Java

JAVA es una alternativa emergente en Computación. Comunicaciones Escalables en Memoria Compartida para Paso de Mensajes en Java Comunicaciones Escalables en Memoria Comparta para Paso de Mensajes en Java Sabela Ramos, Guillermo L. Taboada, Juan Touriño, Ramón Doallo 1 Resumen Este artículo presenta el mdleware de comunicaciones

Más detalles

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14 High Performance Computing y Big Data en AWS +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 212 1 / 14 High Performance Computing High Performance Computing (HPC) Afonta grandes problemas empresariales,

Más detalles

Sistemas distribuidos Message Passing Interface

Sistemas distribuidos Message Passing Interface Sistemas Operativos, primer cuatrimestre de 2013 Sistemas distribuidos N procesos corriendo en M equipos físicamente separados. Se acabó la memoria compartida en el caso general. Podría haberla en ciertos

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero Taller Computación Altas Prestaciones Pedro Antonio Varo Herrero Antes de nada!! Cosas a instalar: OpenMPI: http://www.open-mpi.org/software/ompi/v1.8/downloads/openmpi-1.8.3.tar.gz Mpi4py: pip install

Más detalles

UPC (Unified Parallel C) es un lenguaje de programación

UPC (Unified Parallel C) es un lenguaje de programación Biblioteca de Operaciones Colectivas para el Lenguaje de Programación Paralela UPC José Manuel Andión, Guillermo L. Taboada, Juan Touriño y Ramón Doallo 1 Resumen Este artículo presenta una biblioteca

Más detalles

Práctica 1. Entorno de Trabajo e Introducción a Java. Fundamentos de Programación Departamento de Lenguajes y Sistemas Informáticos. Versión 1.0.

Práctica 1. Entorno de Trabajo e Introducción a Java. Fundamentos de Programación Departamento de Lenguajes y Sistemas Informáticos. Versión 1.0. Práctica 1 Entorno de Trabajo e Introducción a Java Fundamentos de Programación Departamento de Lenguajes y Sistemas Informáticos Versión 1.0.2 Índice Introducción a Java JDK (Java Development Kit) Eclipse

Más detalles

Programación en Entornos Paralelos: MPI

Programación en Entornos Paralelos: MPI 1-11 Marzo de 2017 FACET -UNT Programación en Entornos Paralelos: MPI Graciela Molina mgracielamolina@gmailcom TRADICIONALMENTE Procesamiento secuencial 2 TRADICIONALMENTE Procesamiento secuencial Si ya

Más detalles

CAR. http://acarus.uson.mx/cursos2013/car.htm

CAR. http://acarus.uson.mx/cursos2013/car.htm CAR http://acarus.uson.mx/cursos2013/car.htm Sistemas de CAR en la UNISON Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Aracely Dzul Campos Daniel Mendoza Camacho Yessica Vidal Quintanar

Más detalles

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados

Más detalles

COMPUTACIÓN DE ALTA PERFORMANCE

COMPUTACIÓN DE ALTA PERFORMANCE COMPUTACIÓN DE ALTA PERFORMANCE Curso 2010 Sergio Nesmachnow (sergion@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy) Grupo de Procesamiento Paralelo Aplicado Centro de Cálculo COMPUTACIÓN DE ALTA PERFORMANCE

Más detalles

Tecnología de software para sistemas de tiempo real

Tecnología de software para sistemas de tiempo real 1 dit UPM Tecnología de software para sistemas de tiempo real Juan Antonio de la Puente DIT/UPM Motivación Las herramientas y la tecnología de software que se usan para construir otros tipos de sistemas

Más detalles

Programación Distribuida y Tiempo Real

Programación Distribuida y Tiempo Real Programación Distribuida y Tiempo Real Año 2016 Carrera: Licenciatura en Informática Plan 2015 Año: 3 Duración: Semestral Profesor: Fernando G. Tinetti FUNDAMENTACION: Se presenta el contexto y los conceptos

Más detalles

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM)

EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) EVALUACIÓN COMPARADA DEL RENDIMIENTO DEL PROCESADOR INTEL 5570 (NEHALEM) Carlos Bernal, Ana Silva, Marceliano Marrón, Juan Antonio Ortega, Claudio J. Arjona Área de HPC Centro Informático Científico de

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Programación Orientada a Objetos en Java

Programación Orientada a Objetos en Java Programación Orientada a Objetos en Java Curso 2006-2007 Tema 1 Introducción a Java Gonzalo Méndez Pozo Dpto. de Ingeniería de Software e Inteligencia Artificial Universidad Complutense de Madrid Historia

Más detalles

Modelo de paso de mensajes

Modelo de paso de mensajes Modelo de paso de mensajes Miguel Alfonso Castro García mcas@xanum.uam.mx Universidad Autónoma Metropolitana - Izt 17 de noviembre de 2016 Contenido 1 Comunicación punto a punto 2 3 Comunicación punto

Más detalles

Planificaciones Sistemas Operativos. Docente responsable: MENDEZ MARIANO. 1 de 6

Planificaciones Sistemas Operativos. Docente responsable: MENDEZ MARIANO. 1 de 6 Planificaciones 7508 - Sistemas Operativos Docente responsable: MENDEZ MARIANO 1 de 6 OBJETIVOS 1-Estudiar y conocer en detalle los pilares fundamentales de los sistemas operativos: el Kernel y Proceso,

Más detalles

Ingeniero en Informática

Ingeniero en Informática UNIVERSIDAD DE ALMERÍA Ingeniero en Informática CLÚSTER DE ALTO RENDIMIENTO EN UN CLOUD: EJEMPLO DE APLICACIÓN EN CRIPTOANÁLISIS DE FUNCIONES HASH Autor Directores ÍNDICE 1. Introducción 2. Elastic Cluster

Más detalles

Paradigma de paso de mensajes

Paradigma de paso de mensajes Paradigma de paso de mensajes Curso 2011-2012 Índice Visión lógica del paradigma de paso de mensajes. Operaciones básicas en paso de mensajes. Operaciones bloqueantes. Operaciones no bloqueantes. MPI:

Más detalles

Message Passing Interface (MPI)

Message Passing Interface (MPI) Message Passing Interface (MPI) INTRODUCCIÓN MPI (Message Passing Interface) como es un interfaz estandarizada para la realización de aplicaciones paralelas basadas en pasaje de mensajes. El modelo de

Más detalles

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar.

CAR. Responsable : María del Carmen Heras Sánchez. Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar. CAR Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Daniel Mendoza Camacho Yessica Vidal Quintanar http://acarus2.uson.mx Infraestructura de Hardware Software Conexiones remotas http://acarus2.uson.mx

Más detalles

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas Paralelismo MPI Paso de mensajes Francisco García Sánchez Departamento de Informática y Sistemas Contenido Introducción 1) Uso de MPI 2) Multiplicación de matrices 3) Ordenación por mezcla 4) Programación

Más detalles

Diseño de un simulador de dinámica molecular basado en CORBA

Diseño de un simulador de dinámica molecular basado en CORBA Universidad Carlos III de Madrid Repositorio institucional e-archivo Trabajos académicos http://e-archivo.uc3m.es Proyectos Fin de Carrera 2011-02 Diseño de un simulador de dinámica molecular basado en

Más detalles

Modelos de Programación Paralela Prof. Gilberto Díaz

Modelos de Programación Paralela Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Una implementación multithread de MPI para Linux

Una implementación multithread de MPI para Linux Una implementación multithread de MPI para Linux Alejandro Calderón, Félix García, Jesús Carretero Octubre de 1999 Resumen En este artículo se presenta una implementación multithread de la interfaz estándar

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES Gerardo Ares, Pablo Ezzatti Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Conceptos

Más detalles

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida

Más detalles

CURSO. Optimización Avanzada de Aplicaciones JAVA en Servidores LINUX. (10 Horas)

CURSO. Optimización Avanzada de Aplicaciones JAVA en Servidores LINUX. (10 Horas) CURSO Optimización Avanzada de Aplicaciones JAVA en Servidores LINUX (10 Horas) Viernes 27 y Sábado 28 de Junio de 2014 Con la Universidad de Vigo y CITIC (Centro de Investigación en Tecnologías de la

Más detalles

Programa Formativo. Código: Curso: Programación con JAVA 8 SE Standard Edition Modalidad: ONLINE Duración: 120h.

Programa Formativo. Código: Curso: Programación con JAVA 8 SE Standard Edition Modalidad: ONLINE Duración: 120h. Código: 16630 Curso: Programación con JAVA 8 SE Standard Edition Modalidad: ONLINE Duración: 120h. Objetivos Java es un lenguaje de programación con el que podemos realizar cualquier tipo de desarrollo.

Más detalles

Informática Electrónica Manejadores de Dispositivos (Device Drivers)

Informática Electrónica Manejadores de Dispositivos (Device Drivers) Informática Electrónica Manejadores de Dispositivos (Device Drivers) DSI-EIE-FCEIA 2015 Que es un DD? Es una pieza de software que interactúa con (entre) el sistema operativo y con uno o mas dispositivos

Más detalles

Tema 1: Principios de Java

Tema 1: Principios de Java Tema 1: Principios de Java 0 Definición de java Java (del idioma indonesio: JAWA) Isla más poblada del archipiélago indonesio. Una variedad del grano de café producido en la isla de Java. Lenguaje de programación

Más detalles

Iniciativa académica: UNAM Parte 1 Aquiles Loranca Sánchez.

Iniciativa académica: UNAM Parte 1 Aquiles Loranca Sánchez. IBM Information Management Iniciativa académica: UNAM Parte 1 Aquiles Loranca Sánchez. aloranca@mx1.ibm.com 27 de marzo de 2014 IBM Corporation Agenda 2 Breve historia de Informix. Elementos claves de

Más detalles

Múltiples GPU (y otras chauchas)

Múltiples GPU (y otras chauchas) Múltiples GPU (y otras chauchas) Clase 16, 21/11/2013 http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases Carlos Bederián bc@famaf.unc.edu.ar IFEG-CONICET, FaMAF-UNC Motivación No desperdiciar

Más detalles

Cuando el lenguaje si importa

Cuando el lenguaje si importa Cuando el lenguaje si importa de software financiero J. Daniel Garcia Grupo ARCOS Universidad Carlos III de Madrid 11 de mayo de 2016 cbed J. Daniel Garcia ARCOS@UC3M (josedaniel.garcia@uc3m.es) Twitter

Más detalles

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de

Más detalles

Es una API (Aplication Program Interface) que se usa para paralelismo basado en hilos múltiples en entornos de memoria compartida

Es una API (Aplication Program Interface) que se usa para paralelismo basado en hilos múltiples en entornos de memoria compartida Algo de OPENMP Memoria Compartida Threads O hilos, se definen como flujos de instrucciones independientes, que se ejecutan separadamente del programa principal. Con estos hilos se aprovecha mucho una máquina

Más detalles

Middlewar Middlew es par ar a es par Sistemas de Alto Re R ndimiento José M. Peña

Middlewar Middlew es par ar a es par Sistemas de Alto Re R ndimiento José M. Peña Middlewares para Sistemas de Alto Rendimiento José M. Peña Contenidos Middlewares: Ejemplo lenguajes/entornos de programación: Lenguaje de programación paralela: OpenMP Ejemplos de servicios HPC: Sistemas

Más detalles

Computacion de Alto Performance

Computacion de Alto Performance Computacion de Alto Performance Abraham Zamudio Abraham Zamudio Computacion de Alto Performance 1/47 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH

Más detalles

UNIVERSIDAD DE GUADALAJARA

UNIVERSIDAD DE GUADALAJARA UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS TALLER DE PROGRAMACIÓN

Más detalles

Sistemas Distribuidos. Soporte de Sistemas Operativos

Sistemas Distribuidos. Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Tareas principales de un SO: Administrar recursos Proveer abstracciones de los

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

Sistemas Complejos en Máquinas Paralelas

Sistemas Complejos en Máquinas Paralelas Sistemas Complejos en Máquinas Paralelas Clase 1: OpenMP Francisco García Eijó Departamento de Computación - FCEyN UBA 15 de Mayo del 2012 Memoria compartida Las mas conocidas son las máquinas tipo Symmetric

Más detalles

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

Introducción al Desarrollo de Aplicaciones Móviles con Android

Introducción al Desarrollo de Aplicaciones Móviles con Android Introducción al Desarrollo de Aplicaciones Móviles con Android Febrero 2013 Eder Valente Toledo Nuñez 1 Introducción al Desarrollo Móvil 2 Introducción a Android 3 Instalación del SDK 4 Primera aplicación

Más detalles

Arquitecturas GPU v. 2015

Arquitecturas GPU v. 2015 v. 2015 http://en.wikipedia.org/wiki/graphics_processing_unit http://en.wikipedia.org/wiki/stream_processing http://en.wikipedia.org/wiki/general-purpose_computing_on_graphics_processing_ units http://www.nvidia.com/object/what-is-gpu-computing.html

Más detalles

1. Escalabilidad de transacciones de un motor de búsqueda Web.

1. Escalabilidad de transacciones de un motor de búsqueda Web. Enfoque Token 1. Escalabilidad de transacciones de un motor de búsqueda Web. 2. Simulador de aplicaciones sobre utilización de dispositivos móviles como unidades de procesamiento. Tabla ruteo Red 3G/4G

Más detalles

Intel XeonPhi Workshop

Intel XeonPhi Workshop Intel XeonPhi Workshop Elena Núñez-González Unidad Informática Científica - CIEMAT Madrid, 11 de Febrero de 2015 Evento Lugar, Fecha Índice Introducción MIC Intel Xeon Phi Arquitectura Intel Xeon Phi Entorno

Más detalles

Programación Docente: Ingeniería de Protocolos de Comunicaciones.

Programación Docente: Ingeniería de Protocolos de Comunicaciones. Programación Docente: Ingeniería de Protocolos de Comunicaciones http://pegaso.ls.fi.upm.es/~lmengual/inicio_ip.html Ingeniería de Protocolos de Comunicaciones Curso: 5º (2º cuatrimestre) Optativa Créditos:

Más detalles

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,

Más detalles

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing Cluster Computing 1 Concepto de Cluster Cluster: Sistema de computación basado en hardware estándar conectado por una red dedicada (de altas prestaciones) dedicado a un propósito específico. [Baker00]

Más detalles

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización: PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de

Más detalles

Diseño de Sistemas de Tiempo-real

Diseño de Sistemas de Tiempo-real Diseño de Sistemas de Tiempo-real Aspectos básicos Computadores II / 2005-2006 Contenido Repasaremos algunos conceptos de ingeniería de software y su aplicación a sistemas de tiempo real Introduciremos

Más detalles

Computación de Alta Performance Curso 2008 CLUSTERS

Computación de Alta Performance Curso 2008 CLUSTERS Computación de Alta Performance Curso 2008 Basado en el artículo Cluster computing at a glance. M. Baker, R. Buyya, Software Practice and Experience 29 (6), pp. 551-576, 1999. CÓMO MEJORAR LA PERFORMANCE?

Más detalles

Lenguaje Orientado por Objetos Simple, Poderoso y Fácil de aprender Robusto Interactivo Arquitectura neutral Interpretado y de alto desempeño

Lenguaje Orientado por Objetos Simple, Poderoso y Fácil de aprender Robusto Interactivo Arquitectura neutral Interpretado y de alto desempeño Programación Orientada a Objetos Introducción a Java Angela Carrillo Ramos Java: Lenguaje de Programación Por qué surge un lenguaje? Para adaptarse a los cambios de entorno y usos: Independencia de la

Más detalles

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción a la concurrencia

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción a la concurrencia CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Introducción a la concurrencia 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Grado en Ingeniería

Más detalles

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca A.Zamudio M. Milla Contenido de la Presentación 1 Radio Observatorio de Jicamarca 2 3 4 5 6 Índice

Más detalles

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE

2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2 Contenidos Cluster de prácticas (atcgrid)

Más detalles

Optimice su presupuesto de TI en entornos empresariales críticos

Optimice su presupuesto de TI en entornos empresariales críticos Optimice su presupuesto de TI en entornos empresariales críticos Fujitsu World Tour 2017 #FujitsuWorldTour 0 Copyright 2017 FUJITSU Optimice su presupuesto de TI en entornos empresariales críticos: PRIMEQUEST

Más detalles

La clase Integer y sus métodos. Los Operadores (concepto). Operadores Lógicos y a nivel de Bits. Operadores de desplazamiento. Concatenaciones. La Con

La clase Integer y sus métodos. Los Operadores (concepto). Operadores Lógicos y a nivel de Bits. Operadores de desplazamiento. Concatenaciones. La Con Fases de POO (Análisis y Diseño). Un ejemplo de Análisis y Diseño. Repaso de conceptos de Abstracción y ejemplos. Repaso y definición de Clases, estructura de una clase en Java. Declaración de atributos

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570

Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Evaluación del rendimiento de procesadores Intel Nehalem. Modelos x7550, x5670 y x5570 Juan Carlos Fernández Rodríguez. Área de HPC. Centro Informático Científico de Andalucía (CICA) Junta de Andalucía

Más detalles

Factores de Rendimiento en Entornos Multicore

Factores de Rendimiento en Entornos Multicore Factores de Rendimiento en Entornos Multicore César Allande Álvarez callande@caos.uab.es Computer Architecture & Operating Systems Department (CAOS) Barcelona, Spain Director: Eduardo César Galobardes

Más detalles

EL AUTOR...17 INTRODUCCIÓN...19

EL AUTOR...17 INTRODUCCIÓN...19 ÍNDICE EL AUTOR...17 INTRODUCCIÓN...19 CAPÍTULO 1. INTRODUCCIÓN AL LENGUAJE DE PROGRAMACIÓN JAVA...21 1.1 COMENCEMOS A PROGRAMAR...22 1.1.1 El Entorno Integrado de Desarrollo (IDE)...23 1.2 ESTRUCTURAS

Más detalles

1 General Usuario... 8

1 General Usuario... 8 FAQ Índice de contenidos 1 General... 3 1.1 Qué es COMPUTAEX?...3 1.2 Qué es CénitS?...3 1.3 Qué es LUSITANIA?...3 1.4 Qué objetivos se persiguen desde la Fundación COMPUTAEX?...3 1.5 Qué es un supercomputador?...4

Más detalles

Tile64 Many-Core. vs. Intel Xeon Multi-Core

Tile64 Many-Core. vs. Intel Xeon Multi-Core Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez

Más detalles

Universidad Autónoma de Sinaloa Facultad de Informática Culiacán Maestría en Ciencias de la Información

Universidad Autónoma de Sinaloa Facultad de Informática Culiacán Maestría en Ciencias de la Información Universidad Autónoma de Sinaloa Facultad de Informática Culiacán Maestría en Ciencias de la Información Curso Propedéutico Introducción al Lenguaje C MC. Diego Alonso Gastélum Chavira Junio-2011 Historia

Más detalles

PRIMER PROCESADOR INTEL

PRIMER PROCESADOR INTEL PRIMER PROCESADOR INTEL Inventados en 1947 por William Shockley, John Bardeen y Walter Brattain, los transistores son pequeños interruptores de transmisión eléctrica. El desarrollo de circuitos integrados

Más detalles

Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas

Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas 19/10/10 1/33 Contenido Contenido Clusters Beowulf MPI (Message Passing Interface) Comunicación entre procesos Un programa simple con

Más detalles

Sofis Solutions. Centro de Capacitación Catálogo 2015

Sofis Solutions. Centro de Capacitación Catálogo 2015 Sofis Solutions Centro de Capacitación Catálogo 2015 Centro de Capacitación El Centro de Capacitación de Sofis Solutions ofrece soluciones de capacitaciones personalizadas a las necesidades específicas

Más detalles

PARTICIPACIÓN DE ISA EN ASIGNATURAS DE INFORMÁTICA Y COMPUTADORES EN LA UMH

PARTICIPACIÓN DE ISA EN ASIGNATURAS DE INFORMÁTICA Y COMPUTADORES EN LA UMH PARTICIPACIÓN DE ISA EN ASIGNATURAS DE INFORMÁTICA Y COMPUTADORES EN LA UMH UNIVERSIDAD MIGUEL HERNÁNDEZ Oscar Reinoso García Luis Miguel Jiménez García CONTENIDOS DOCENTES Marco Académico Escuela Politécnica

Más detalles

Introducción a los Sistemas Multiprocesadores

Introducción a los Sistemas Multiprocesadores Introducción a los Sistemas Multiprocesadores Multiprocesadores estilo Von Neumann Modelos de Organización Modelos de Programación Clasificación de los Multiprocesadores Por qué Sistemas Multiprocesadores?

Más detalles

MPI y sus aplicaciones en infraestructuras Grid

MPI y sus aplicaciones en infraestructuras Grid MPI y sus aplicaciones en infraestructuras Grid Dr. Isabel Campos Plasencia Instituto de Física de Cantabria-IFCA Santander, Spain Grids y e-ciencia 2008, IFIC, Valencia Esquema Introducción a MPI MPI

Más detalles

Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones

Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones Jesús A. Díaz Sánchez Curso 2010/2011 Índice 1. Introducción 2 2. Multikernel 3 3.

Más detalles

Sistemas Distribuidos

Sistemas Distribuidos Sistemas Distribuidos Carrera: Magister en Redes de Datos Año 2010 Duración: 124 Hs. Profesor a Cargo: Dr. Fernando Tinetti OBJETIVOS GENERALES: Proveer los fundamentos del procesamiento distribuido. Identificar

Más detalles

2.- Estructuras de Sistemas Operativos

2.- Estructuras de Sistemas Operativos 2.- Estructuras de Sistemas Operativos Estructuras de Sistemas Operativos Servicios de SOs Interfaz de SOs System Calls Programas del Sistema Diseño e Implementation de SOs Estructura de SOs Máquinas Virtuales

Más detalles

INTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr.

INTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr. INTRODUCCION A LA COMPUTACION PARALELA 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology Dr. Pablo Guillén Universidad de Los Andes 22-26 de Noviembre de 2004 Qué es el Paralelismo?

Más detalles

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades

TIER 0 Centros europeos. TIER 1 Centros nacionales. TIER 2 Centros regionales y universidades www.bsc.es TIER 0 Centros europeos + Capacidad TIER 1 Centros nacionales TIER 2 Centros regionales y universidades + Equipos 2 1 BARCELONA SUPERCOMPUTING CENTER 4 2 5 6 3 7 8 4 9 10 5 11 12 6 Raw Data

Más detalles

Programación en Intel Xeon Phi

Programación en Intel Xeon Phi Programación en Intel Xeon Phi David Corbalán Navarro Máster en Nuevas Tecnologías de la Informática Índice Introducción al paralelismo Niveles de paralelismo Paradigmas de programación paralela Manycores

Más detalles

Francisco Javier Hernández López

Francisco Javier Hernández López Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay

Más detalles

Principios de Computadoras II

Principios de Computadoras II Departamento de Ingeniería Electrónica y Computadoras Ing. Ricardo Coppo Qué es una computadora? Una computadora es una máquina digital y sincrónica con capacidad de cálculo numérico y lógico controlada

Más detalles

Procesamiento distribuido en Java

Procesamiento distribuido en Java Diseño Y Aplicaciones de Sistemas Distribuidos Procesamiento distribuido en Java Joan Vila DISCA / UPV Departament d Informàtica de Sistemes i Computadors Universitat Politècnica de València Contenidos

Más detalles

Introducción a Java. Dr. (c) Noé Alejandro Castro Sánchez

Introducción a Java. Dr. (c) Noé Alejandro Castro Sánchez Introducción a Java Dr. (c) Noé Alejandro Castro Sánchez Programas Java Applets Pueden correr en navegadores Web Agregan funcionalidad a páginas Web Se llega a restringir su funcionalidad (e. g., no pueden:

Más detalles

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Supercomputadores 2 Qué es un supercomputador? Top500

Más detalles

Heterogénea y Jerárquica

Heterogénea y Jerárquica Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida

Más detalles

CDI Arquitecturas que soportan la concurrencia. granularidad

CDI Arquitecturas que soportan la concurrencia. granularidad granularidad Se suele distinguir concurrencia de grano fino es decir, se aprovecha de la ejecución de operaciones concurrentes a nivel del procesador (hardware) a grano grueso es decir, se aprovecha de

Más detalles

Computación Cientíca en Clusters

Computación Cientíca en Clusters Computación Cientíca en Clusters Administración de plataformas paralelas Juan Piernas Cánovas Febrero de 2010 Computación Cientíca en Clusters Febrero de 2010 1 / 25 Índice 1 Estructura del curso 2 Introducción

Más detalles

Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010

Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010 PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en ciencias computacionales Integral profesional Programa elaborado por: Programación Concurrente Horas teóricas: 1 Horas prácticas:

Más detalles

PACO-I5O01 - Paralelismo y Concurrencia

PACO-I5O01 - Paralelismo y Concurrencia Unidad responsable: 340 - EPSEVG - Escuela Politécnica Superior de Ingeniería de Vilanova i la Geltrú Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2017

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Informe técnico FINAL

Informe técnico FINAL Informe técnico Resumen: Este informe recoge los principales resultados extraídos del estudio del rendimiento de diferentes herramientas de paralelización en el superordenador Finis Terrae II instalado

Más detalles

Capítulo 3: Procesos. n Concepto de Proceso. n Despacho (calendarización) de Procesos. n Operaciones en Procesos. n Procesos en cooperación

Capítulo 3: Procesos. n Concepto de Proceso. n Despacho (calendarización) de Procesos. n Operaciones en Procesos. n Procesos en cooperación 3.- Procesos Capítulo 3: Procesos Concepto de Proceso Despacho (calendarización) de Procesos Operaciones en Procesos Procesos en cooperación Compunicación Interprocesos Communicación en sistemas Cliente-Servidor

Más detalles

8 abril 2014 IFEMA Madrid spain.ni.com/nidays. spain.ni.com

8 abril 2014 IFEMA Madrid spain.ni.com/nidays. spain.ni.com 8 abril 2014 IFEMA Madrid /nidays 1 Diseño de Sistemas de alto rendimiento para pruebas, medidas y control Covadonga Villalba Aplicaciones de Altas Prestaciones Test de producción de volumen elevado Creciente

Más detalles

Computación Conociendo la herramienta de cálculo. La Computadora

Computación Conociendo la herramienta de cálculo. La Computadora Computación 1-2017 - Conociendo la herramienta de cálculo La Computadora Sistemas Operativos cómo funcionan? Esquema de relaciones: aplicaciones SO hardware A1 A2 Aplicaciones del usuario An Sistema Operativo

Más detalles

Capítulo 4: Threads. n Modelos Multithreads. n Threads. n Pthreads. n Threads de Windows XP. n Threads de Linux. n Threads de Java

Capítulo 4: Threads. n Modelos Multithreads. n Threads. n Pthreads. n Threads de Windows XP. n Threads de Linux. n Threads de Java 4.- Threads Capítulo 4: Threads Modelos Multithreads Threads Pthreads Threads de Windows XP Threads de Linux Threads de Java Procesos Uni y Multi-hilos Beneficios Rapidez de respuesta Compartir recursos

Más detalles

MPP. MIMD Computador Masivamente Paralelo

MPP. MIMD Computador Masivamente Paralelo MPP MIMD Computador Masivamente Paralelo BLUE GENE/Q Introducción Se trata del tercer representante de una serie que comenzó con el Blue Gene/L y continuó con el Blue Gene/P. Son máquinas desarrolladas

Más detalles

ESCUELA DE INGENIERIA Informática Y Sistemas

ESCUELA DE INGENIERIA Informática Y Sistemas ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN

Más detalles

Experimentación distribuida basada en el sistema Condor

Experimentación distribuida basada en el sistema Condor UNIVERSIDAD DE CÓRDOBA ESCUELA POLITÉCNICA SUPERIOR Experimentación distribuida basada en el sistema Condor Alumno: Directores: Prof. Dr. Sebastián Ventura Soto Prof. D. ª Amelia Zafra Gómez 1. DATOS PERSONALES

Más detalles