Computacion de Alto Performance

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Computacion de Alto Performance"

Transcripción

1 Computacion de Alto Performance Abraham Zamudio Abraham Zamudio Computacion de Alto Performance 1/47

2 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH 2 MPI Init MPI Finalize MPI Comm size MPI Comm rank MPI Send MPI recv 5 Ejemplos Abraham Zamudio Computacion de Alto Performance 2/47

3 Definicion Técnicas, investigación e infraestructura entorno a problemas con alta demanda de recursos computacionales. Comprende: High Performance Computing (HPC) Hardware: almacenamiento, procesamiento, redes... Software: sistemas de archivos, programación paralela... Aplicaciones : cálculos complejos, simulación, minería... Abraham Zamudio Computacion de Alto Performance 3/47

4 Definicion Supercomputación: Máquinas de gran escala, muchos CPUs y mucha memoria Abraham Zamudio Computacion de Alto Performance 4/47

5 Definicion Computación cluster: Múltiples máquinas en red funcionando como una sola Abraham Zamudio Computacion de Alto Performance 5/47

6 Definicion Rendimiento se mide en operaciones de punto flotante por segundo (FLOPS) La supercomputadora más rápida del planeta a junio de 2013 es Tianhe-2, una computadora desarrollada por la Universidad Nacional de Tecnología de Defensa de China (NUDT) y ubicada en el Centro Nacional de Supercomputación en Guangzho, República Popular China, tiene un rendimiento de 33,86 petaflops ( cálculos de coma flotante por segundo) superando en casi el doble al supercomputador Cray Titan, del Oak Ridge National Laboratory de Estados Unidos, que desde noviembre de 2012 mantenía la corona. Abraham Zamudio Computacion de Alto Performance 6/47

7 Definicion En la actualidad las máquinas más grandes operan en el orden de petaflops (www.top500.org) Abraham Zamudio Computacion de Alto Performance 7/47

8 Definicion : Estadisticas Top500.org Procesadores Abraham Zamudio Computacion de Alto Performance 8/47

9 Definicion : Estadisticas Top500.org Paises Abraham Zamudio Computacion de Alto Performance 9/47

10 Definicion : Estadisticas Top500.org Vendedores Abraham Zamudio Computacion de Alto Performance 10/47

11 Definicion : Estadisticas Top500.org Areas Abraham Zamudio Computacion de Alto Performance 11/47

12 Definicion : Estadisticas Top500.org Sistema Operativo Abraham Zamudio Computacion de Alto Performance 12/47

13 Definicion : Estadisticas Top500.org Conectividad Abraham Zamudio Computacion de Alto Performance 13/47

14 Definicion : Estadisticas Top500.org Conectividad Abraham Zamudio Computacion de Alto Performance 14/47

15 Definicion : Tipos de Computadoras Taxonomía de Flynn La taxonomía de Flynn es una clasificación de arquitecturas de computadores propuesta por Michael J. Flynn a en Es la clasificación más extendida del paralelismo: a flynn/ Distingue entre instrucciones y datos Estos pueden ser simples o múltiples Abraham Zamudio Computacion de Alto Performance 15/47

16 Definicion : Tipos de Computadoras Taxonomía de Flynn - SISD Una instrucción por unidad de tiempo Trabaja sobre una sola variable (datos) Podría utilizar pipelining Ejemplo:Computador con CPU de un núcleo Abraham Zamudio Computacion de Alto Performance 16/47

17 Definicion : Tipos de Computadoras Taxonomía de Flynn - SIMD Todos los procesadores ejecutan la misma instrucción Ejemplo:GPUs, IBM Cell (PS3) Podrían utilizar datos o variables diferentes Requieren distribución y sincronización Abraham Zamudio Computacion de Alto Performance 17/47

18 Definicion : Tipos de Computadoras Taxonomía de Flynn - MISD Maquina poco común Múltiples procesadores trabajan sobre los mismos datos Algunos usos posibles: Sistemas tolerantes a fallas y Criptografía Abraham Zamudio Computacion de Alto Performance 18/47

19 Definicion : Tipos de Computadoras Taxonomía de Flynn - MIMD Cada procesador ejecuta diferentes instrucciones sobre diferentes datos Se pueden construir a partir de componentes SIMD Computadores con múltiples procesadores y cada procesador con múltiples núcleos Abraham Zamudio Computacion de Alto Performance 19/47

20 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH 2 MPI Init MPI Finalize MPI Comm size MPI Comm rank MPI Send MPI recv 5 Ejemplos Abraham Zamudio Computacion de Alto Performance 20/47

21 Que es el Paralelismo Computacional Considera tu aplicacion computacional favorita UN procesador se puede demorar N horas!!!! Abraham Zamudio Computacion de Alto Performance 21/47

22 Que es el Paralelismo Computacional Porque no usar N procesadores? El concepto es simple : Paralelismo = Usar muchos procesadores para resolver un problema Abraham Zamudio Computacion de Alto Performance 22/47

23 Porque usar Computo Paralelo? Limites de una CPU Memoria disponible Performance La computacion paralela permite Resolver problemas que no se podria con una CPU Resolver problemas que no se pueden resolver en un tiempo razonable Abraham Zamudio Computacion de Alto Performance 23/47

24 Porque usar Computo Paralelo? Se pueden ejecutar : Problemas Grandes. Menores Tiempos de procesamiento. Correr simulaciones con resoluciones muy pequeñas. Analizar muchos casos. Modelar modelos fisicos con un realismo sorprendente. Abraham Zamudio Computacion de Alto Performance 24/47

25 Ejemplo : Pronostico del Tiempo Abraham Zamudio Computacion de Alto Performance 25/47

26 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH 2 MPI Init MPI Finalize MPI Comm size MPI Comm rank MPI Send MPI recv 5 Ejemplos Abraham Zamudio Computacion de Alto Performance 26/47

27 Nodos Abraham Zamudio Computacion de Alto Performance 27/47

28 Resource Manager - Torque TORQUE es un administrador de recursos Open Source que provee control sobre los trabajos y nodos pertenecientes a un cluster. Torque esta basado en OpenPBS (Version ) e incorpora escalabilidad, tolerancia a fallos y parches con caracteristicas extendidas facilitadas por NCSA, OSC, El Departamento de Energia de los Estados Unidos, Sandia, PNNL, University of Buffalo, TeraGrid, y muchas otras organizaciones orientadas a la Computacion de Alto Rendimiento, ademas de asignar recursos en base a peticiones como pueden ser: Arquitectura del procesador, memoria RAM, cantidad de procesadores, tiempo total de ejecucion en los procesadores y de toda la tarea (walltime),etc. Esta version puede ser libremente modificada y redistribuida sujeto a las restricciones de la licencia incluida. Abraham Zamudio Computacion de Alto Performance 28/47

29 Resource Manager - Torque Troque provee mejoras sobre el estandar de OpenPBS en las siguientes areas : Tolerancia a Fallos Se han agregado chequeos y manejos de condiciones de fallo Reparacion de muchos errores Script de soporte para chequear el estado o salud de los nodos Interfaz de planificacion Interfaz de consultas extendidas proveendo al planificador con informacion mas confiable y exacta Interfaz de control extendidad permitiendo al planificador mayor control sobre el comportamiento del trabajo y sus atributos Permite la recoleccion de estadisticas sobre los trabajos terminados Abraham Zamudio Computacion de Alto Performance 29/47

30 Resource Manager - Torque Troque provee mejoras sobre el estandar de OpenPBS en las siguientes areas : Escalabilidad Servidor significamentemente mejorado para el modelo de comunicacion MOM Habilidad para manipular grandes clusters Habilidad para manejar trabajos grandes (sobre 2000 procesadores) Habilidad para soportar grandes servidores de mensajes Usabilidad Extensiones de manejo de bitacoras Bitacoras mas entendibles Abraham Zamudio Computacion de Alto Performance 30/47

31 Scheduler - MAUI MAUI CLUSTER SCHEDULER es un planificador de trabajos Open Source usado en clusters y supercomputadoras. En él se pueden definir politicas de asignacion de recursos, como atributos de las colas, logrando una gestion mas efectiva con caracteristicas tales como: qué proceso corre, cúando y dónde, logrando así una mejor utilización de todos los recursos. Abraham Zamudio Computacion de Alto Performance 31/47

32 Message Passing Interface - MPI Las bibliotecas de paso de mensajes son herramientas que posibilitan el desarrollo de aplicaciones paralelas en maquinas con memoria distribuida. La funcion de una biblioteca de paso de mensajes es permitir que procesos en maquinas diferentes puedan cambiar informacion a travez de una red de interconexion. Abraham Zamudio Computacion de Alto Performance 32/47

33 Message Passing Interface - MPI MPI es un estandar adoptado para el desarrolo de una biblioteca de comunicacion a travez de paso de mensajes, siendo este estandar largamente utilizado para la exploracion del paralelismo en arquitecturas caracterizadas por poseer una memoria distribuida. Una de las implementaciones del estandar es MPICH2. Abraham Zamudio Computacion de Alto Performance 33/47

34 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH 2 MPI Init MPI Finalize MPI Comm size MPI Comm rank MPI Send MPI recv 5 Ejemplos Abraham Zamudio Computacion de Alto Performance 34/47

35 Message Passing Interface CHameleon MPICH2 fue diseñado para ser una implementación ampliamente portátil de alto rendimiento del estandar Message Passing Interface (MPI) (MPI-1 y MPI-2). MPICH2 esta pensado para proporcionar una implementación de MPI eficientemente, compatible con diferentes plataformas de computación y comunicación incluyendo clústers de computadores, redes de alta velocidad (Myrinet de 10 Gigabit Ethernet, InfiniBand, Quadrics) y sistemas de computación patentados (Blue Gene, Cray, SiCortex). Abraham Zamudio Computacion de Alto Performance 35/47

36 Estructura generica de un programa MPI Incluir ficheros de cabecera MPI Definiciones y prototipos de funciones especificas de MPI Definir variables Inicializar el entorno MPI Cada procesador llama a una rutina MPI de inicializacion int main(int argc, char *argv[]) Funciones generales, llamadas a funciones MPI Cerrar comunicaciones MPI Cada procesador llama a una rutina MPI de finalizacion MPI Finalize(); Abraham Zamudio Computacion de Alto Performance 36/47

37 MPI Init Inicializa la biblioteca de MPI y debe ser llamada antes de cualquier otra rutina MPI. En C MPI Init ( &argc, &argv ); En Fortran call MPI INIT(integer error) Abraham Zamudio Computacion de Alto Performance 37/47

38 MPI Finalize Termina el ambiente de ejecución de MPI. Cualquier llamada a otra rutina de MPI posterior a esta fallará. En C MPI Finalize(); En Fortran CALL MPI Finalize (integer error) Abraham Zamudio Computacion de Alto Performance 38/47

39 MPI Comm size Determina el número de procesos en un comunicador. El comunicador representa a un grupo de procesos que pueden intercambiar mensajes entre si dentro de un contexto. Por default el que se emplea es el comunicador universal MPI COMM WORLD. En C MPI Comm size(mpi COMM WORLD,&numproc); En Fortran CALL MPI Comm size ( &MPI COMM WORLD, nprocs, integer error ) Abraham Zamudio Computacion de Alto Performance 39/47

40 MPI Comm rank Determina el rango de un proceso dentro de un comunicador. El rango es un número entre cero y el total de los procesos menos uno. En C CALL MPI Comm rank ( &MPI COMM WORLD, myrank, integer error ) MPI Comm rank(mpi COMM WORLD,&miproc); En Fortran Abraham Zamudio Computacion de Alto Performance 40/47

41 MPI Send Se utiliza para enviar datos punto a punto (Bloqueante) En C MPI Send( buffer, cantidad, tipo dato, p destino,etiqueta, comunicador ); Abraham Zamudio Computacion de Alto Performance 41/47

42 MPI Send void *buffer Puntero al mensaje a enviar int cantidad Numero de elementos de enviar MPI Datatype Tipo de Dato Tipo de elementos a enviar int p destino ID del proceso destino int Etiqueta Etiqueta para marcar mensajes MPI Comm Comunicador Comunicador usado Abraham Zamudio Computacion de Alto Performance 42/47

43 MPI recv Se utiliza para recibir datos punto a punto (Bloqueante). En C MPI Recv( buffer, cantidad, tipo dato, p fuente,etiqueta, comunicador, status); Abraham Zamudio Computacion de Alto Performance 43/47

44 MPI Rcvd void *buffer Puntero al mensaje a recibir int cantidad Numero de elementos de recibir MPI Datatype Tipo de Dato Tipo de elementos a recibir int p fuente ID del proceso fuente int etiqueta Filtro para saber que mensajes recibir MPI Comm Comunicador Comunicador usado MPI Status status Status del mensaje Abraham Zamudio Computacion de Alto Performance 44/47

45 Indice 1 Algunos Aspectos Teoricos 2 Paralelismo Computacional 3 Linux Cluster Hardware Software 4 MPICH 2 MPI Init MPI Finalize MPI Comm size MPI Comm rank MPI Send MPI recv 5 Ejemplos Abraham Zamudio Computacion de Alto Performance 45/47

46 #include <mpi.h> #include <stdio.h> int main(int argc, char *argv[]) { int np, p; MPI_Init( &argc, &argv ); MPI_Comm_size( MPI_COMM_WORLD, &np ); MPI_Comm_rank( MPI_COMM_WORLD, &p ); printf("soy el proceso %i de un total de %i \n", p, np ); MPI_Finalize(); } Abraham Zamudio Computacion de Alto Performance 46/47

47 Gracias por su atencion

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca

Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca Implementación de un Cluster de Computadoras con software libre para Computación Científica en Jicamarca A.Zamudio M. Milla Contenido de la Presentación 1 Radio Observatorio de Jicamarca 2 3 4 5 6 Índice

Más detalles

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013 FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación

Más detalles

Programación en Paralelo con MPI en Clusters Linux

Programación en Paralelo con MPI en Clusters Linux Programación en Paralelo con MPI en Clusters Linux Francisco Javier Rodríguez Arias 13 de marzo de 2006 Problema y Motivación En física se requiere hacer muchos cálculos. Para eso se hacen programas de

Más detalles

MPI es un estándar de programación en paralelo mediante paso de mensajes que permite crear programas portables y eficientes.

MPI es un estándar de programación en paralelo mediante paso de mensajes que permite crear programas portables y eficientes. Programación paralela en MPI MPI es un estándar de programación en paralelo mediante paso de mensajes que permite crear programas portables y eficientes. Introducción a MPI MPI fue creado en 1993 como

Más detalles

UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 19 de junio de 2007

UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 19 de junio de 2007 UNIVERSIDAD CARLOS III DE MADRID DEPARTAMENTO DE INFORMÁTICA INGENIERÍA EN INFORMÁTICA. ARQUITECTURA DE COMPUTADORES II 19 de junio de 2007 Para la realización del presente examen se dispondrá de 2 1/2

Más detalles

:Arquitecturas Paralela basada en clusters.

:Arquitecturas Paralela basada en clusters. Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas

Más detalles

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA

CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA CLUSTER FING: PARALELISMO de MEMORIA DISTRIBUIDA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción: arquitecturas

Más detalles

Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas

Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas Brevísimo tutorial de MPI (Message Passing Interface) Miguel Vargas 19/10/10 1/33 Contenido Contenido Clusters Beowulf MPI (Message Passing Interface) Comunicación entre procesos Un programa simple con

Más detalles

Qué es y qué no es un sistema distribuido? M.C. Juan Carlos Olivares Rojas

Qué es y qué no es un sistema distribuido? M.C. Juan Carlos Olivares Rojas Qué es y qué no es un sistema distribuido? M.C. Juan Carlos Olivares Rojas Distribuir Según el diccionario: dividir una cosa entre varios designando lo que a cada uno corresponde Problemática: muchas tecnologías

Más detalles

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters

Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters Cómputo de Alto Desempeño en Intel: OSCAR, Solución en Software para Cómputo en Clusters Jorge Figueroa Canales. jfigueroac@uxmcc2.iimas.unam.mx Maestría en Ciencia e Ingeniería de la Computación. Universidad

Más detalles

Arquitectura: Clusters

Arquitectura: Clusters Universidad Simón Bolívar Arquitectura: Clusters Integrantes: - Aquilino Pinto - Alejandra Preciado Definición Conjuntos o conglomerados de computadoras construidos mediante la utilización de hardware

Más detalles

Consideraciones en el diseño de redes Topología de redes Mecanismos de rutado

Consideraciones en el diseño de redes Topología de redes Mecanismos de rutado Redes básicas de interconexión Consideraciones en el diseño de redes Topología de redes Mecanismos de rutado Consideraciones en el diseño de redes Prestaciones de la red Múltiples procesadores Múltiples

Más detalles

Introducción a la Computación Distribuida y Condor

Introducción a la Computación Distribuida y Condor Introducción a la Computación E-Ciencia Supercomputación Cluster Tecnologías de Cluster y su Clasificación Servicios Importantes para Clusters Administración y Planificación de Tareas en Clusters Condor

Más detalles

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe

Linux Week PUCP. Computación de Alto Rendimiento en Linux. rmiguel@senamhi.gob.pe Linux Week PUCP 2006 Computación de Alto Rendimiento en Linux Richard Miguel San Martín rmiguel@senamhi.gob.pe Agenda Computación Científica Computación Paralela High Performance Computing Grid Computing

Más detalles

Instalación de un Super-Servidor de procesamiento paralelo basado en MPI

Instalación de un Super-Servidor de procesamiento paralelo basado en MPI LABORATORIO: Simulación y Mecánica Computacional TRABAJO: Instalación de un Super-Servidor de procesamiento paralelo basado en MPI Idioma: Español Plataforma de Hardware: AMD64 Sistema Operativo: Debian

Más detalles

Cómputo en paralelo con MPI

Cómputo en paralelo con MPI Cómputo en paralelo con MPI Miguel Vargas-Félix miguelvargas@cimat.mx CIMAT, October 9, 2015 1/35 Clusters Beowulf Master node External network Slave nodes Network switch Características: Tecnología estandar

Más detalles

Introducción al Cluster

Introducción al Cluster Centro de Teleinformática y Producción Industrial - Regional Cauca Pág. 1 de 11 Nombre del Introducción al Cluster Historial Fecha Razón de cambio (s) Autor(es) 26 / 10 /2011 Documento Inicial, Primer

Más detalles

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada

Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Extractos de la conferencia: Supercomputación y Software Libre realizada por Linalco en la Universidad de Granada Copyright 2006 Linalco Consulting, S.L. Linalco Consulting, S.L., autor de este documento,

Más detalles

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO

TUTORIAL: COMPUTACIÓN de ALTO DESEMPEÑO TUTORIAL : COMPUTACIÓN de ALTO DESEMPEÑO SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Computadores paralelos

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas

Clusters en Linux. * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net. * FACYT-UC Computación ** IUPSM Sistemas Clusters en Linux * Jorge Castellanos - jorcas@cantv.net ** Julio Ortega - roliverio@cantv.net * FACYT-UC Computación ** IUPSM Sistemas www.vaslibre.org.ve Agenda Motivación Definiciones Cluster Beowulf

Más detalles

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011

Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Clusters Nicolás Zarco Arquitectura Avanzada 2 Cuatrimestre 2011 Introducción Aplicaciones que requieren: Grandes capacidades de cómputo: Física de partículas, aerodinámica, genómica, etc. Tradicionalmente

Más detalles

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero

Taller Computación Altas Prestaciones. Pedro Antonio Varo Herrero Taller Computación Altas Prestaciones Pedro Antonio Varo Herrero Antes de nada!! Cosas a instalar: OpenMPI: http://www.open-mpi.org/software/ompi/v1.8/downloads/openmpi-1.8.3.tar.gz Mpi4py: pip install

Más detalles

Programación Híbrida e Introducción a la Programación de GPUs

Programación Híbrida e Introducción a la Programación de GPUs Programación Híbrida e Introducción a la Programación de GPUs Fernando Robles Morales Instituto Nacional de Medicina Genómica Enrique Cruz Martínez Universidad Autónoma de la ciudad de México CONTENIDO

Más detalles

Introducción. TEMA 3: Clusters de Computadores Personales

Introducción. TEMA 3: Clusters de Computadores Personales Introducción TEMA 3: Clusters de Computadores Personales Laboratorio de Arquitecturas Avanzadas de Computadores 5º de Ingeniería Superior de Informática 2008/09 Alberto Sánchez alberto.sanchez@urjc.es

Más detalles

Unidad 1: Conceptos generales de Sistemas Operativos.

Unidad 1: Conceptos generales de Sistemas Operativos. Unidad 1: Conceptos generales de Sistemas Operativos. Tema 3: Estructura del sistema operativo. 3.1 Componentes del sistema. 3.2 Servicios del sistema operativo. 3.3 Llamadas al sistema. 3.4 Programas

Más detalles

JUAN CARLOS TORRES JOSE ALBEIRO CUESTA MENA GERMAN VARGAS FUNDACION UNIVERSITARIA KONRAD LORENZ

JUAN CARLOS TORRES JOSE ALBEIRO CUESTA MENA GERMAN VARGAS FUNDACION UNIVERSITARIA KONRAD LORENZ ANALISIS DE UNA ESTRATEGIA OPTIMA DE PARTICION DE ARCHIVOS PARA PROCESAMIENTO EN UN CLUSTER BASADO EN COMPUTACION PARALELA- CASO ARCHIVO DE RESPUESTAS DE UN EXAMEN JUAN CARLOS TORRES JOSE ALBEIRO CUESTA

Más detalles

Organización del Centro de Cálculo

Organización del Centro de Cálculo Organización del Centro de Cálculo Problemas Septiembre 2007 40 servidores sin identificar Ubicación de Servidores aleatoria Servidores cayéndose constantemente Ni un servidor en rack Red y cableado a

Más detalles

Plataformas Actuales para Computación de Alto Rendimiento

Plataformas Actuales para Computación de Alto Rendimiento Plataformas Actuales para Computación de Alto Rendimiento Gilberto Díaz gilberto@ula.ve Centro de Cálculo Científico (CeCalCULA) Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores

CLUSTERS. Antonio Antiñolo Navas ESI-UCLM. Antonio.Antinolo@uclm.es. Profesor: Serafín Benito Santos. Arquitectura e Ingeniería de Computadores CLUSTERS Antonio Antiñolo Navas Antonio.Antinolo@uclm.es 1 Arquitectura e Ingeniería de Computadores Profesor: Serafín Benito Santos ESI-UCLM Índice 1. Introducción. 2. Clasificación. 3. Ventajas y Desventajas.

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 3 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD3 El bien a adquirir se describe a continuación y consiste en cúmulo de supercómputo

Más detalles

Proyecto Grid Computing

Proyecto Grid Computing Proyecto Grid Computing Éric Lajeunesse Olivier Piché Definición de una GRID: DTDI Una infraestructura que permite el acceso y procesamiento concurrente de un programa entre varias entidades computacionales

Más detalles

Programación Paralela y Distribuida

Programación Paralela y Distribuida Programación Paralela y Distribuida Cores, Threads and Nodes Pedro Antonio Varo Herrero pevahe@gmail.com Pedro Antonio Varo Herrero Estudiante 4º Curso - Universidad de Sevilla Grado Ing. Informática Tecnologías

Más detalles

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela

Linux Clusters Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Linux s Gilberto Diaz gilberto@ula.ve Centro de Cálculo Científico Universidad de Los Andes Mérida - Venezuela Eterna necesidad Desde la invención de las computadoras el hombre constantemente ha mantenido

Más detalles

INTRODUCCIÓN. Que es un sistema operativo? - Es un programa. - Funciona como intermediario entre el usuario y los programas y el hardware

INTRODUCCIÓN. Que es un sistema operativo? - Es un programa. - Funciona como intermediario entre el usuario y los programas y el hardware INTRODUCCIÓN Que es un sistema operativo? - Es un programa. - Funciona como intermediario entre el usuario y los programas y el hardware INTRODUCCIÓN METAS: Brindar un entorno para que los usuarios puedan

Más detalles

5.1. Descripción de la base de datos... 42. 5.3. Tiempos de corrida (Seg.) del algoritmo paralelo de validación. cruzada 10 (kernel usual)...

5.1. Descripción de la base de datos... 42. 5.3. Tiempos de corrida (Seg.) del algoritmo paralelo de validación. cruzada 10 (kernel usual)... Abstract Bagging introduced by Breiman (1996) and Boosting introduced by Freund - Shapire (1996), are two general techniques to build a combination of classifiers, and that are more accurate than individual

Más detalles

Clusters de Alto Rendimiento

Clusters de Alto Rendimiento Clusters de Alto Rendimiento Contenido: M. en A. Iliana Gómez Zúñiga iliana.gomez@redudg.udg.mx Expositor: L.S.I. Virgilio Cervantes Pérez virgilio@cencar.udg.mx Diseño: Lic. Genaro Ramirez genaro.ramirez@redudg.udg.mx

Más detalles

Sistemas Operativos. Pedro Cabalar TEMA III. PROCESOS. Depto. de Computación Universidade da Coruña

Sistemas Operativos. Pedro Cabalar TEMA III. PROCESOS. Depto. de Computación Universidade da Coruña Sistemas Operativos Pedro Cabalar Depto. de Computación Universidade da Coruña TEMA III. PROCESOS. P. Cabalar Sistemas( Operativos Depto. de Computación Universidade Tema da Coruña III. Procesos ) 1 /

Más detalles

Daniel Adolfo Diaz Giraldo Anderson Alberto Ochoa Estupiñán

Daniel Adolfo Diaz Giraldo Anderson Alberto Ochoa Estupiñán Implementación de un prototipo de plataforma tecnológica tipo cluster, para la computación de algoritmos realizados en mpi presentados en el campus universitario. Daniel Adolfo Diaz Giraldo Anderson Alberto

Más detalles

PLATAFORMA CLÚSTER BASADA EN CENTOS

PLATAFORMA CLÚSTER BASADA EN CENTOS PLATAFORMA CLÚSTER BASADA EN CENTOS Área de conocimiento: Redes y Telecomunicaciones Raúl Hernández Palacios, Felipe de Jesús Núñez Cárdenas, Javier Hervert Hernández, Miriam De la Cruz Bautista. Área

Más detalles

Grids. Departamento de Supercómputo - DGSCA UNAM

Grids. Departamento de Supercómputo - DGSCA UNAM Grids Departamento de Supercómputo - DGSCA UNAM Contenido Definiciones Arquitectura Usos Tipos de grids Ejemplos Conclusiones Definiciones Grid: infraestructura para el uso compartido de recursos distribuidos

Más detalles

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing

Computación Cluster y Grid. Computación Cluster y Grid. Cluster Computing Cluster Computing 1 Concepto de Cluster Cluster: Sistema de computación basado en hardware estándar conectado por una red dedicada (de altas prestaciones) dedicado a un propósito específico. [Baker00]

Más detalles

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es)

Microsoft HPC. V 1.0 José M. Cámara (checam@ubu.es) Microsoft HPC V 1.0 José M. Cámara (checam@ubu.es) Introducción Microsoft HPC (High Performance Computing) es la solución de Microsoft a la computación de alto rendimiento. Está enfocado principalmente

Más detalles

Sistemas Operativos Práctica 3

Sistemas Operativos Práctica 3 Sistemas Operativos Práctica 3 Ing. Andrés Bustamante afbustamanteg@unal.edu.co Ingeniería de Sistemas Facultad de Ingeniería Universidad de la Amazonia 2009 1. Objetivo El objetivo de la práctica es que

Más detalles

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI

UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SUPERCÓMPUTO FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC ( ) APOBL

Más detalles

Servicios avanzados de supercomputación para la ciència y la ingeniería

Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería Servicios avanzados de supercomputación para la ciència y la ingeniería HPCNow! provee a sus clientes de la tecnología y soluciones

Más detalles

SISTEMAS OPERATIVOS II

SISTEMAS OPERATIVOS II SISTEMAS OPERATIVOS II INSTITUTO TECNOLÓGICO DE MORELIA Unidad I: Sistemas Operativos en ambientes Distribuidos Departamento de Sistemas y Computación M.C. Benito Sánchez Raya sanchezraya@hotmail.com Disponible

Más detalles

Arquitecturas de computadoras

Arquitecturas de computadoras Arquitecturas de computadoras Colaboratorio Nacional de Computación Avanzada (CNCA) 2014 Contenidos 1 Computadoras 2 Estación de Trabajo 3 Servidor 4 Cluster 5 Malla 6 Nube 7 Conclusiones Computadoras

Más detalles

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia

Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co. Universidad Pedagógica y Tecnológica de Colombia. Colombia Facultad de Ingeniería ISSN: 0121-1129 revista.ingenieria@uptc.edu.co Universidad Pedagógica y Tecnológica de Colombia Colombia Amézquita-Mesa, Diego Germán; Amézquita-Becerra, Germán; Galindo-Parra, Omaira

Más detalles

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas

Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas Unidad I Fundamentos de Sistemas Distribuidos M.C. Juan Carlos Olivares Rojas Temario 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos 1.3. Ventajas y desventajas

Más detalles

Introduccion al Lenguaje C. Omar Andrés Zapata Mesa Grupo de Fenomenología de Interacciones Fundamentales, (Gfif) Universidad de Antioquia

Introduccion al Lenguaje C. Omar Andrés Zapata Mesa Grupo de Fenomenología de Interacciones Fundamentales, (Gfif) Universidad de Antioquia Introduccion al Lenguaje C Omar Andrés Zapata Mesa Grupo de Fenomenología de Interacciones Fundamentales, (Gfif) Universidad de Antioquia Introducción C es un lenguaje de programación creado en 1972 por

Más detalles

Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011

Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011 Módulo 1. Fundamentos de Computadores Informática y Programación Escuela de Ingenierías Industriales y Civiles Grado en Ingeniería en Ingeniería Química Curso 2010/2011 1 CONTENIDO Tema 1. Introducción

Más detalles

Unidad 1: Conceptos generales de Sistemas Operativos.

Unidad 1: Conceptos generales de Sistemas Operativos. Unidad 1: Conceptos generales de Sistemas Operativos. Tema 1: Introducción: 1.1 Introducción: Qué es un sistema operativo?. 1.2 Conceptos clave de un sistema operativo. 1.3 El sistema operativo como administrador

Más detalles

Heterogénea y Jerárquica

Heterogénea y Jerárquica Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida

Más detalles

Almacenamiento virtual de sitios web HOSTS VIRTUALES

Almacenamiento virtual de sitios web HOSTS VIRTUALES Almacenamiento virtual de sitios web HOSTS VIRTUALES El término Hosting Virtual se refiere a hacer funcionar más de un sitio web (tales como www.company1.com y www.company2.com) en una sola máquina. Los

Más detalles

Entorno de desarrollo para clusters

Entorno de desarrollo para clusters Entorno de desarrollo para clusters Memòria del Projecte Fi de Carrera d'enginyeria en Informàtica realitzat per Javier Panadero Martínez i dirigit per Porfidio Hernádez Budé Bellaterra 6 de Junio de 2008

Más detalles

Computación de altas prestaciones aplicada al cálculo de variaciones en genómica

Computación de altas prestaciones aplicada al cálculo de variaciones en genómica UNIVERSIDAD DE CASTILLA-LA MANCHA ESCUELA SUPERIOR DE INGENIERÍA INFORMÁTICA MÁSTER UNIVERSITARIO EN TECNOLOGÍAS INFORMÁTICAS AVANZADAS TRABAJO FIN DE MÁSTER Computación de altas prestaciones aplicada

Más detalles

El Bueno, el Malo y el Feo

El Bueno, el Malo y el Feo El Bueno, el Malo y el Feo Mejorando la Eficiencia y Calidad del Software Paralelo Ricardo Medel Argentina Systems & Tools SSG-DPD Basado en un guión de Eric W. Moore - Senior Technical Consulting Engineer

Más detalles

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ

Marco Teórico MARCO TEÓRICO. AGNI GERMÁN ANDRACA GUTIERREZ MARCO TEÓRICO. 13 14 Virtualización Hablar de virtualización es hablar de un concepto que describe la posibilidad de tener varios sistemas operativos funcionando al mismo tiempo en un mismo equipo físico.

Más detalles

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s!

ATLANTE! i n f r a e s t r u c t u r a d e s u p e r C o m p u t a c i ó n G o b i e r n o d e C a n a r i a s! ATLANTE infraestructura G o b i e r n o! de d supercomputación e C a n a r i a s! v forma parte de la estrategia del Gobierno de Canarias de poner a disposición de investigadores y empresas canarios infraestructuras

Más detalles

D.4.3.1 Definición de la infraestructura de soporte.

D.4.3.1 Definición de la infraestructura de soporte. D.4.3.1 Definición de la infraestructura de soporte. RESUMEN EJECUTIVO El proyecto CloudPYME ha analizado, desarrollado y probado tres servicios de valor añadido para las PYME de la Euroregión Galicia-Norte

Más detalles

CURSOS DE VERANO 2014

CURSOS DE VERANO 2014 CURSOS DE VERANO 2014 CLOUD COMPUTING: LA INFORMÁTICA COMO SERVICIO EN INTERNET LA PLATAFORMA GOOGLE CLOUD PLATFORM. GOOGLE APP ENGINE Pedro A. Castillo Valdivieso Universidad de Granada http://bit.ly/unia2014

Más detalles

INFORME DE PASANTIA Clúster de Consolas de PlayStation 3

INFORME DE PASANTIA Clúster de Consolas de PlayStation 3 Universidad de Carabobo Facultad experimental de ciencia y tecnología Departamento de Computación INFORME DE PASANTIA Clúster de Consolas de PlayStation 3 Tutor Académico: Dr. Germán Larrazábal Tutor Empresarial:

Más detalles

Contenidos. Sistemas operativos Tema 3: Estructura del sistema operativo. Componentes típicos de un SO. Gestión de procesos.

Contenidos. Sistemas operativos Tema 3: Estructura del sistema operativo. Componentes típicos de un SO. Gestión de procesos. Contenidos Sistemas operativos Tema 3: Estructura del sistema operativo Componentes típicos del SO Servicios del SO Llamadas al sistema Programas del sistema El núcleo o kernel Modelos de diseño del SO

Más detalles

Computación Tercer Año

Computación Tercer Año Colegio Bosque Del Plata Computación Tercer Año UNIDAD 3 Sistemas Operativos E-mail: garcia.fernando.j@gmail.com Profesor: Fernando J. Garcia Ingeniero en Sistemas de Información Sistemas Operativos Generaciones

Más detalles

Cálculos en paralelo con FreeFem++

Cálculos en paralelo con FreeFem++ Cálculos en paralelo con FreeFem++ J. Rafael Rodríguez Galván 4 al 8 de julio de 2011 J. Rafael Rodríguez Galván (UCA) Cálculos en paralelo con FreeFem++ 4 al 8 de julio de 2011 1 / 18 Outline 1 Cálculos

Más detalles

4. Clusters. Arquitectura de Clusters. Arquitectura de un cluster. Tipos de clusters. Redes para clusters. Ejemplo de Cluster: Google

4. Clusters. Arquitectura de Clusters. Arquitectura de un cluster. Tipos de clusters. Redes para clusters. Ejemplo de Cluster: Google 4. Clusters Arquitectura de un cluster Introducción Componentes de un cluster Ventajas e inconvenientes Tipos de clusters Clusters de alto rendimiento Clusters de balanceo de carga Clusters de alta disponibilidad

Más detalles

Universidad Carlos III de Madrid Escuela Politécnica Superior. Ingeniería en Informática Proyecto Fin de Carrera

Universidad Carlos III de Madrid Escuela Politécnica Superior. Ingeniería en Informática Proyecto Fin de Carrera Universidad Carlos III de Madrid Escuela Politécnica Superior Ingeniería en Informática Proyecto Fin de Carrera Diseño y despliegue de un cluster Linux para el soporte a la docencia Autor: Jaime Pons Bailly-Bailliere

Más detalles

Soluciones para entornos HPC

Soluciones para entornos HPC Dr.. IT Manager / Project Leader @ CETA-Ciemat abelfrancisco.paz@ciemat.es V Jornadas de Supercomputación y Avances en Tecnología INDICE 1 2 3 4 HPC Qué? Cómo?..................... Computación (GPGPU,

Más detalles

Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final. Julio 2008

Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final. Julio 2008 Facultad de Ingeniería Universidad de la República Proyecto Fenton - Cluster de Computadores de Alto Desempeño con Acceso Remoto (CCADAR) Informe Final Julio 2008 Estudiantes: Santiago Iturriaga, Paulo

Más detalles

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015

Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 Anexo A. Partida 2 Laboratorio Nacional de Cómputo de Alto Desempeño: Fortalecimiento de la Infraestructura 2015 CLUSTER LANCAD 2 El bien a adquirir se describe a continuación y consiste de un cúmulo de

Más detalles

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS

EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS EXPEDIENTE: 2/2015 ADQUISICIÓN E INSTALACIÓN DE INFRAESTRUCTURA CIENTÍFICA Y TECNOLÓGICA PARA CÉNITS PLIEGO DE PRESCRIPCIONES TÉCNICAS PLIEGO DE PRESCRIPCIONES TÉCNICAS. EXPTE 2/2015 Adquisición e instalación

Más detalles

UNIVERSIDAD VERACRUZANA. Tesina. Licenciado en Sistemas Computacionales Administrativos

UNIVERSIDAD VERACRUZANA. Tesina. Licenciado en Sistemas Computacionales Administrativos UNIVERSIDAD VERACRUZANA Facultad de Contaduría y Administración Propuesta de implementación de un clúster de altas prestaciones Tesina Para obtener el Título de: Licenciado en Sistemas Computacionales

Más detalles

Middlewar Middlew es par ar a es par Sistemas de Alto Re R ndimiento José M. Peña

Middlewar Middlew es par ar a es par Sistemas de Alto Re R ndimiento José M. Peña Middlewares para Sistemas de Alto Rendimiento José M. Peña Contenidos Middlewares: Ejemplo lenguajes/entornos de programación: Lenguaje de programación paralela: OpenMP Ejemplos de servicios HPC: Sistemas

Más detalles

HA Clusters. Usualmente utilizan una red privada donde constantemente se monitorea el estatus de cada nodo, a esto se lo conoce como heartbeat.

HA Clusters. Usualmente utilizan una red privada donde constantemente se monitorea el estatus de cada nodo, a esto se lo conoce como heartbeat. Qué es un Clúster? Definición: Un conjunto de cosas similares que ocurren juntas http://www.merriam-webster.com/dictionary/cluster Un cluster de computadores es un conjunto de computadoras interconectadas

Más detalles

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1.

Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda. 1. Implementación uso y distribución de aplicaciones para física de altas energías en entornos colaborativos. Umberto Cotti y Arnulfo Zepeda 1. Resumen Se presentan los resultados del diseño y la construcción

Más detalles

GRID COMPUTING MALLA DE ORDENADORES

GRID COMPUTING MALLA DE ORDENADORES GRID COMPUTING MALLA DE ORDENADORES Introducción Concepto Compartir potencia computacional; Aprovechamiento de ciclos de procesamiento; El Grid Computing se enmarca dentro de la tecnología de computación

Más detalles

Paralelismo en Máquinas de Búsqueda

Paralelismo en Máquinas de Búsqueda Paralelismo en Máquinas de Búsqueda Mauricio Marin Yahoo! Research, Santiago Julio 2007 Yahoo! Confidential Clusters de Computadores Clusters de Computadores mensajes Yahoo! Confidential Yahoo! Confidential

Más detalles

CAR. http://acarus.uson.mx/cursos2013/car.htm

CAR. http://acarus.uson.mx/cursos2013/car.htm CAR http://acarus.uson.mx/cursos2013/car.htm Sistemas de CAR en la UNISON Responsable : María del Carmen Heras Sánchez Asesores Técnicos : Aracely Dzul Campos Daniel Mendoza Camacho Yessica Vidal Quintanar

Más detalles

Arquitectura de Computadores: Exámenes y Controles

Arquitectura de Computadores: Exámenes y Controles 2º curso / 2º cuatr. Grado en Ing. Informática Doble Grado en Ing. Informática y Matemáticas Arquitectura de Computadores: Exámenes y Controles Examen de Prácticas AC 05/07/2013 resuelto Material elaborado

Más detalles

Diseño y evaluación de un clúster HPC: Software de sistema

Diseño y evaluación de un clúster HPC: Software de sistema Diseño y evaluación de un clúster HPC: Software de sistema Autor: Cristobal Ortega Carrasco Grado en Ingeniería Informática Especialidad en Ingeniería de Computadores 26 de Junio de 2014 Director: David

Más detalles

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY EL CLUSTER

Más detalles

LOTE 1: PLATAFORMA DE CÓMPUTO DE ALTO RENDIMIENTO PARA CÁLCULO CIENTÍFICO Y PARELELO BASADO EN CLUSTER DE COMPUTADORES.

LOTE 1: PLATAFORMA DE CÓMPUTO DE ALTO RENDIMIENTO PARA CÁLCULO CIENTÍFICO Y PARELELO BASADO EN CLUSTER DE COMPUTADORES. PLIEGO DE PRESCRIPCIONES TÉCNICAS DEL SUMINISTRO DE MATERIAL DE ALTO RENDIMIENTO PARA CÁLCULO CIENTÍFICO PARA EL DEPARTAMENTO DE ARQUITECTURA Y TECONOLOGÍA DE COMPUTADORES DE LA E.T.S. DE INGENIERÍAS INFORMÁTICA

Más detalles

DEPARTAMENTO DE CIENCIAS DE LA COMPUTACIÓN CARRERA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA

DEPARTAMENTO DE CIENCIAS DE LA COMPUTACIÓN CARRERA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA DEPARTAMENTO DE CIENCIAS DE LA COMPUTACIÓN CARRERA DE INGENIERÍA DE SISTEMAS E INFORMÁTICA TESIS PREVIO A LA OBTENCIÓN DEL TÍTULO DE INGENIERO EN SISTEMAS AUTOR: JUAN DANIEL CARRILLO TEMA: IMPLEMENTACIÓN

Más detalles

UNIVERSIDAD TECNICA DE AMBATO FACULTAD DE INGENIERIA EN SISTEMAS. Estudio y diseño de cluster Beowulf bajo la plataforma Linux para la

UNIVERSIDAD TECNICA DE AMBATO FACULTAD DE INGENIERIA EN SISTEMAS. Estudio y diseño de cluster Beowulf bajo la plataforma Linux para la UNIVERSIDAD TECNICA DE AMBATO FACULTAD DE INGENIERIA EN SISTEMAS Tema: Estudio y diseño de cluster Beowulf bajo la plataforma Linux para la elaboración de un Webcluster AUTORES: EDIT MARILI CORREA BAEZ

Más detalles

4. Programación Paralela

4. Programación Paralela 4. Programación Paralela La necesidad que surge para resolver problemas que requieren tiempo elevado de cómputo origina lo que hoy se conoce como computación paralela. Mediante el uso concurrente de varios

Más detalles

ViPoC - una alternativa virtual para el desarrollo de aplicaciones paralelas.

ViPoC - una alternativa virtual para el desarrollo de aplicaciones paralelas. ViPoC - una alternativa virtual para el desarrollo de aplicaciones paralelas. Omar Ochoa Rodríguez, Alberto Ochoa Rodríguez Abstract El presente trabajo reporta el diseño y construcción de un cluster portátil

Más detalles

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf

Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf Uso de modelos PGAS para computación de Alto Rendimiento en clusters Beowulf D Elía, Dalcin, Sarraf, López, Battaglia, Rodríguez, Sonzogni Centro de Investigación de Métodos Computacionales (CIMEC) (new

Más detalles

Sistema Operativo Linux

Sistema Operativo Linux Fundación Colegio Aplicación Toico Palo Gordo. Municipio Cárdenas. Cátedra: Informática Objetivo N. 2 (SISTEMA OPERATIVO LINUX) Segundo Año. Secciones: A y B. Prof. Dayana Meléndez Sistema Operativo Linux

Más detalles

Programación Concurrente

Programación Concurrente Master en Computación Programación Concurrente Bloque II: Programación concurrente en POSIX Tema 1. Introducción al estándar POSIX Tema 3. Gestión de Threads Tema 4. Gestión del Tiempo Tema 5. Planificación

Más detalles

UAEM 2015, Estado de México

UAEM 2015, Estado de México CONSTRUCCIÓN DE CLUSTERS Fernando Robles Morales Ins/tuto Nacional de Medicina Genómica Enrique Cruz Mar

Más detalles

EL lenguaje de programación Java es ampliamente. de mecanismos de comunicación eficientes

EL lenguaje de programación Java es ampliamente. de mecanismos de comunicación eficientes Mecanismos de Comunicación Eficientes en Redes de Altas Prestaciones para Bibliotecas de Paso de Mensajes en Java Roberto R. Expósito, Guillermo L. Taboada, Juan Touriño y Ramón Doallo 1 Resumen Este trabajo

Más detalles

Recursos y servicios HPC en el BIFI

Recursos y servicios HPC en el BIFI Recursos y servicios HPC en el BIFI Guillermo Losilla Anadón Responsable grupo HPC e infraestructuras de computación del BIFI guillermo@bifi.es Indice Grupo HPC@BIFI Servicio de cálculo y almacenamiento

Más detalles

CAPITULO II MARCO TEORICO SOBRE: SISTEMAS DE INFORMACION, ATENCION AL CLIENTE, GESTIÓN, ADMINISTRACION, QUEJAS, SUGERENCIAS, CONSULTAS, INTERNET

CAPITULO II MARCO TEORICO SOBRE: SISTEMAS DE INFORMACION, ATENCION AL CLIENTE, GESTIÓN, ADMINISTRACION, QUEJAS, SUGERENCIAS, CONSULTAS, INTERNET 10 CAPITULO II MARCO TEORICO SOBRE: SISTEMAS DE INFORMACION, ATENCION AL CLIENTE, GESTIÓN, ADMINISTRACION, QUEJAS, SUGERENCIAS, CONSULTAS, INTERNET A. SISTEMA DE INFORMACION Es aquél conjunto ordenado

Más detalles

Sistemas Operativos Avanzados. Trabajo Práctico Final

Sistemas Operativos Avanzados. Trabajo Práctico Final Ingeniería en Sistemas de Información Trabajo Práctico Final Procesamiento paralelo: qué tener en cuenta para aprovecharlo. Conceptos y alternativas en Linux. Smerling, Leonardo Tschanz, Raúl Año: 2001

Más detalles

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES

UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES UNIVERSIDAD INDUSTRIAL DE SANTANDER VICERRECTORIA DE INVESTIGACIÓN Y EXTENSIÓN PLIEGOS DE CONDICIONES PRELIMINARES VOLUMEN II: ESPECIFICACIONES TÉCNICAS ADQUISICIÓN DE UNA INFRAESTRUCTURA DE COMPUTACIÓN

Más detalles

General Parallel File System

General Parallel File System General Parallel File System Introducción GPFS fue desarrollado por IBM, es un sistema que permite a los usuarios compartir el acceso a datos que están dispersos en múltiples nodos; permite interacción

Más detalles

Computación paralela y distribuida

Computación paralela y distribuida Computación paralela y distribuida MSC-0302 Nombre de la asignatura: Computación paralela y distribuida Línea de trabajo: Tecnologías web Tiempo de dedicación del estudiante a las actividades de: DOC TIS

Más detalles

Mosix2: La versión grid de Mosix para Linux-2.6

Mosix2: La versión grid de Mosix para Linux-2.6 Mosix2: La versión grid de Mosix para Linux-2.6 Juan P. Caballero Lionel Gutierrez Javier Echaiz Jorge R. Ardenghi Laboratorio de Investigación de Sistemas Distribuidos (LISiDi) Departamento de Ciencias

Más detalles