Computación de Altas Prestaciones Sistemas computacionales

Documentos relacionados
Modelos de computadores paralelos

Computación de Altas Prestaciones Sistemas computacionales

Modelado de los computadores paralelos

Modelado de los computadores paralelos

Modelado de los computadores paralelos

Taller de Programación Paralela

Arquitectura de Computadoras para Ingeniería

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo

ALGORITMOS PARALELOS Tema 1: Introducción a la Computación Paralela

Taxonomía de las arquitecturas

Programación Gráfica de Altas Prestaciones

Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:

MULTIPROCESADORES TIPOS DE PARALELISMO

Multiprocesamiento en Lenguaje C Conceptos básicos de la computación paralela

Aspectos avanzados de arquitectura de computadoras Multiprocesadores (I) Facultad de Ingeniería - Universidad de la República Curso 2017

Nociones básicas de computación paralela

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES

Introducción a la Computación Paralela

Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas

Procesamiento Paralelo

Clasificación de Flynn de los computadores

ARQUITECTURA DEL COMPUTADOR

Arquitecturas de Altas Prestaciones y Supercomputación

Lusitania. Pensando en Paralelo. César Gómez Martín

Procesamiento Paralelo

TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS. Introducción Hardware Software Aspectos de diseño

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS

Memoria compartida simétrica

Computación de Alta Performance Curso 2009 ARQUITECTURAS PARALELAS ARQUITECTURAS PARALELAS

GRADO EN INGENIERÍA DE COMPUTADORES

Paralelismo _Arquitectura de Computadoras IS603

Introducción a los Sistemas Multiprocesadores

Redes de Altas Prestaciones

GRADO EN INGENIERÍA DE COMPUTADORES

Sistemas Operativos. Curso 2016 Introducción

Taller de Programación Paralela

ANX-PR/CL/ GUÍA DE APRENDIZAJE

Grupo de Computación Científica y Programación Paralela Universidad de Murcia

TEMA 2: Organización de computadores

PARADIGMA y LENGUAJES DE PROGRAMACIÓN

Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez.

CDI Arquitecturas que soportan la concurrencia. granularidad

Introduccion a Sistemas Operativos. Ej: Linux

Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida

MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML

Sistemas Operativos. Algo de Sistemas Operativos, Arquitecturas y Paralelismo

1 o GII. Universidad de Murcia Facultad de Informática. Calendario de Exámenes 2018 Convocatoria de junio

Entornos de programación paralela basados en modelos/paradigmas

07 y 08 Sistemas distribuidos y paralelos y tarea 02

Programación Paralela y Concurrente

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos

Multiprocesadores de Memoria Compartida

Programación Concurrente y Paralela. Unidad 1 Introducción

Factores de Rendimiento en Entornos Multicore

TEMA 4 PROCESAMIENTO PARALELO

Motivación. Entre los temas que serán abarcados en este curso podemos mencionar

SISTEMAS DE MULTIPROCESAMIENTO

Granularidad y latencia

Plataformas paralelas

MULTIPROCESADORES MODELOS DE INTERCONEXIÓN

Tema%4.( Sistemas(distribuidos.(( Introducción.(Modelos(HW(y(SW.(

EVOLUCIÓN DE LOS PROCESADORES

INTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr.

Introducción a la Programación Paralela

SISTEMAS PARALELOS PROGRAMA ANALÍTICO. Unidad 1: Conceptos básicos Paralelismo. Objetivos del procesamiento paralelo.

Introducción a las arquitecturas paralelas

ANX-PR/CL/ GUÍA DE APRENDIZAJE

Guía Docente 2017/2018

HPC 101 Introducción a la computación de alto rendimiento

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Arquitecturas de Computadoras II

1 o GII. Calendario de Exámenes 2018 Convocatoria de junio. Universidad de Murcia Facultad de Informática

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA

BENEMÉRITA UNIVERSIDAD AUTÓNOMA DE PUEBLA FACULTAD CIENCIAS DE LA COMPUTACION

Conceptos básicos de procesamiento paralelo (1)

Introducción a los multiprocesadores

Unidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED

Depto. Sistemas I.O. y Computación. informáticos y Computación Univ. La Laguna

Programa Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO

Introducción a los sistemas de Multiprocesamiento Prof. Gilberto Díaz

1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR

I.T.S.C.S. Instituto tecnológico superior compu sur SYLLABUS DE ARQUITECTURA I REF: ARQUITECTURA DE HARDWARE

Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2015/2016 Tercer curso Primer cuatrimestre

Programación Paralela

Máster en Tecnologías de la Información

Trabajo de investigación Paralelismo en el procesador

Introducción al Computo Distribuido

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

UNIVERSIDAD NACIONAL DE INGENIERIA FACULTAD DE ELECTROTECNIA Y COMPUTACION DEPARTAMENTO DE ARQUITECTURA Y SISTEMAS

Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos

DISEÑO E IMPLEMENTACIÓN DE UN CLUSTER TIPO BEOWULF PARA EL DESARROLLO DE CÓMPUTO CIENTÍFICO AVANZADO

CONCEPTOS BÁSICOS DE UNA RED.

Tema 1: PROCESADORES SEGMENTADOS

COMPONENTES DEL PC LEONARDO OLIVARES VILLA MATEO CARDONA ARENAS

Transcripción:

Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1

Motivación Problemas de alto coste computacional: Necesario abordarlos con sistemas computacionales de altas prestaciones Con programas paralelos eficientes Con nuevos sistemas: Resolución de problemas de mayor dimensión Resolución de problemas previamente intratables Universidad de Murcia 2

Contenido y organización Planificado: Sistemas computacionales (1Te+0 Pr+3 Tr) Paradigmas de programación paralela (1 Te+0 Pr+0 Tr) Organización: Presentación+sistemas+paradigmas: 1.5 horas Trabajo sin evaluar: lectura sobre distintos sistemas Universidad de Murcia 3

Programación paralela Uso de varios procesadores trabajando juntos para resolver una tarea común: Cada procesador trabaja en una porción del problema Los procesos pueden intercambiar datos, a través de la memoria o por una red de interconexión Universidad de Murcia 4

Programación paralela Posibilidades:... Segmentación encauzada. Pipeline Jerarquía de memorias División de memoria en bloques Paralelismo a nivel de instrucción Ejecución fuera de orden Especulación Múltiples unidades funcionales Unidades vectoriales Procesadores de E/S Varios procesadores en un chip LAN de altas prestaciones Universidad de Murcia 5

Programación paralela Concurrente: varios procesos trabajando en la resolución de un problema Heterogénea: procesadores con distintas características Adaptativa: durante la ejecución el programa se adapta al estado del sistema Distribuida: procesadores geográficamente distribuidos En la web: necesidad de herramientas específicas Cuántica o biológica? Universidad de Murcia 6

Programación paralela Límites de sistemas secuenciales: Memoria Velocidad Sistemas paralelos permiten resolver: Problemas mayores Más problemas Más rápidamente Universidad de Murcia 7

Modelos de computadores paralelos SECUENCIAL (SISD) Modelo Von Neuman Memoria Instrucciones: de memoria a procesador Datos: entre memoria y procesador Procesador Universidad de Murcia 8

Modelos de computadores paralelos SIMD. Una única Unidad de Control. La misma instrucción se ejecuta síncronamente por todas las unidades de procesamiento. instrucciones programa Procesador Procesador Procesador datos Universidad de Murcia 9

Modelos de computadores paralelos MIMD. Cada procesador ejecuta un programa diferente independientemente de los otros procesadores. programa programa programa instrucciones instrucciones instrucciones Procesador datos Procesador datos Procesador datos Universidad de Murcia 10

Modelos de computadores paralelos P P P P P P P P P P P P M M M M M M B U S Network Memoria distribuida cada procesador tiene su propia memoria local. Se utiliza paso de mensajes para intercambiar datos. M e m o r y Memoria compartida un único espacio de memoria. Todos los procesadores tienen acceso a la memoria a través de una red de conexión: Bus Red de barras cruzadas Red multietapa Universidad de Murcia 11

Sistemas de memoria compartida P P P P BUS Memory Uniform memory access (UMA) Cada procesador tiene acceso uniforme a memoria. También se llaman symmetric multiprocessors (SMPs) Non uniform memory access (NUMA) El tiempo de acceso depende de dónde están los datos. El acceso local es más rápido. Más fácil y barato de escalar que SMPs P P P P BUS Memory P P P P BUS Memory Network Universidad de Murcia 12

Sistemas de memoria compartida NUMA: SGI Origin 2000 Universidad de Murcia 13

Sistemas de memoria distribuida red anillo Diámetro: p/2 Hipercubo Malla Diámetro: p Servidor de ficheros Estaciones de trabajo Universidad de Murcia 14

Evolución de los sistemas paralelos TOP500 Universidad de Murcia 15

En Murcia Personal: Uso de OpenMP y MPI en monoprocesadores y bipros Empresas: Redes o multiprocesadores de reducido tamaño (hasta 16 nodos) Uso para manejo de volúmenes de datos grandes, sin programación paralela Universidad: Cartagena: híbrido MC+MD, 4 nodos comunicados con PM y cada nodo 4 procesadores en MC, gestionando nueva compra Murcia: híbrido MC+MD, 8 nodos comunicados con PM y cada nodo 4 procesadores en MC, gestionando nueva compra Resolución de problemas científicos, uso mínimo de paralelismo Grupos de investigación: Redes de ordenadores, para computación científica o paralelismo COCI: PC bipro, cluster: 3 bipro con duales, 2 bipros; computación paralela y heterogénea Universidad de Murcia 16

Sistemas actuales y futuros Multicore Actual: Bipro y Quad Intel, también SUN, CELL, AMD,... Procesadores específicos Gráficos GPU De tratamiento de señal DSP FPGA y heterogéneos embebidos De juegos PS2 Computadores heterogéneos CPU+GPU Futuro: Plataformas híbridas Itanium2+Xeon con MC Futuro: Híbridos con 16000+16000 Distribuidos Redes, Grid, Web P2P, móviles Universidad de Murcia 17