TEMA 4 PROCESAMIENTO PARALELO
|
|
- Carolina Plaza Carmona
- hace 5 años
- Vistas:
Transcripción
1 TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida
2 Tipos de plataformas de computación paralela Organización lógica. Visión que tiene el programador La estructura de control Maestro/Esclavo SPMD Modelo de comunicación entre tareas Espacio de direcciones único y compartido (Memoria compartida) El paso de mensajes Organización física. Según la forma de acceso en un sistema multiprocesador a la región de memoria común a todos los procesadores Sistema de memoria compartido: un único sistema de memoria es compartido por todos los procesadores Sistema de memoria distribuida: cada procesador tiene su propia memoria física, inaccesible por el resto.
3 Sistema de memoria distribuida Cada procesador dispone de su propia memoria, independiente del resto y solo accesible por su procesador La comunicación se realiza por paso de mensajes También conocida como arquitectura de memoria privada o arquitectura de paso de mensajes
4 Sistema de memoria distribuida El paso de mensajes es la estrategia dominante en los sistemas con gran número de procesadores (mayor que 100) y en programas que pueden dividirse en subprogramas independientes Se intentará minimizar el número de mensajes y maximizar su tamaño
5 Sistema de memoria distribuida Procesadores masivamente paralelos (MPPs- Massively Parallel Processor) Un único computador con múltiples CPU s comunicadas por un bus de datos Cluster (múltiples computadores cada uno con su propio procesador, enlazados por una red de interconexión) De clase Beowulf (cada computador del cluster está exclusivamente dedicado al cluster) NOW (cada computador del cluster no está exclusivamente dedicado al cluster)
6 Un sistema Beowulf Conjunto de nodos minimalistas (placa base con cpu, memoria y dispositivo comunicación) conectados por un medio de comunicación barato Cada nodo de un Beowulf se dedica exclusivamente a procesos del supercomputador. Conexiones placa a placa por cable RJ-45 cruzado Se evita el hardware innecesario a cambio de una fuerte dependencia entre el software y la topología de la red
7 CLUSTERS Presentan distintas topologías en función de las conexiones punto a punto que se establezcan entre sus procesadores redes lineales, de anillo o en estrella hipercubos La implementación más natural y habitual de los clusters es como parte de una red de área local, en la que las máquinas que forman el cluster se conectan a una red de alta velocidad y la máquina que actúa como servidor se conecta además a la red exterior. Se utilizan como dispositivos de interconexión los switches (la comunicación entre procesadores dispone del 100% del ancho de banda del canal)
8 CLUSTERS Las exigencias de cálculo de las aplicaciones comerciales y científicas crecen día a día. Podemos aumentar la capacidad de la unidad de procesamiento aumentar la memoria o sustituir el procesador por otro de tecnología superior y/o de mayor velocidad de reloj hacer que varias unidades colaboren para la resolución conjunta de una tarea procesamiento en paralelo tecnología del pipelining procesamiento superescalar procesadores vectoriales paralelismo sobre un registro supercomputadores vectoriales y procesadores masivamente paralelos, MPPs clusters (alternativa de menor coste ampliamente utilizada y consolidada)
9 VENTAJAS DE LOS CLUSTERS Se pueden construir con un esfuerzo relativamente moderado. Son sistemas de bajo coste. Utilizan hardware convencional y accesible comunicación comercial Myrinet o Fast Ethernet) (sistema de Software de libre distribución Linux, PVM Machine) o MPI (Message Passing Interface) (Parallel Virtual Son sistemas escalables Cada máquina de un cluster puede ser un sistema completo utilizable o aprovechable para otros propósitos Es posible diseñar el cluster de tal forma que si un nodo falla, el resto continúe trabajando Que los programas escritos para un cluster funcionarán en cualquier otro con independencia del tipo de procesador de cada nodo sin más que recompilar el código
10 DESVENTAJAS DE LOS CLUSTERS Las redes ordinarias no están diseñadas para el procesamiento paralelo. La latencia de red es alta y el ancho de banda relativamente bajo En los sistemas operativos monoprocesador existe muy poco software para tratar un cluster como un único sistema
11 Cuándo y cómo utilizar un cluster? La razón de ser del procesamiento paralelo es acelerar la resolución de un problema. Con n procesadores es posible resolver el problema n veces más rápido que haciendo uso de uno sólo (salvo por el mínimo retraso que supone el reparto de trabajo inicial y la recolección de datos final), La aceleración superlineal: el programa se ejecuta aún más rápido que en régimen lineal Deceleración: encuentran los problemas que se paralelizan muy mal, es decir, necesitan estar continuamente compartiendo datos entre procesadores para obtener el resultado final. El tiempo de ejecución aumenta a medida que aumenta el número de procesadores Típica: cada procesador conozca, tras cada paso, el estado del sistema completo, con lo que todos los datos deben propagarse a todos los computadores (interacción gravitatoria o la culombiana)
12 PARALELIZAR APLICACIONES PARA USO EN CLUSTER Adaptar una aplicación propia de cálculo intensivo para sacar provecho de un cluster, y para ello no hay más remedio que recurrir a su paralelización Programar explícitamente el paso de mensajes Usando sockets o el dispositivo de red directamente Las bibliotecas de paso de mensajes PVM (Parallel Virtual Machine, máquina paralela virtual) y MPI (Message Passing Interface, interfaz para el paso de mensajes) Las bibliotecas de función colectiva AFAPI (Aggregate Function APZ, API de funciones colectivas). Utilizar herramientas que lo hagan Herramientas de paralelización automática (muy caros y, lo que es peor, funcionan realmente mal) Lenguajes de programación paralelos Nuevos lenguajes (Ora3 y Parallaxis4) Desarrollo de extensiones paralelas para lenguajes como Fortran o C» HPF (High Performance Fortran, Fortran de alto rendimiento).
13 RENDIMIENTO Y COSTES EN SISTEMAS PARALELOS Factores que influyen en la velocidad computacional Granularidad de los procesos. Factor de aceleración (speedup). Ley de Amdahl. Eficiencia. Coste. Escalabilidad. Balance de carga.
14 Granularidad de los procesos. Lo mucho que se ha dividido el problema en pedazos Granularidad gruesa: Gran número de instrucciones secuenciales que no necesitan de la comunicación con otros procesos para ser ejecutadas. Granularidad fina: Dispone de pocas instrucciones secuenciales Se trata de maximizar esa razón manteniendo el paralelismo suficiente. tiempo de computación tiempo de comunicaci ón t t comp com
15 Factor de aceleración (speedup). Medida del rendimiento relativo entre un sistema multiprocesador y un sistema con un único procesador ts S( M ) t La aceleración máxima absoluta con M procesadores S( M ) t t s s M p M
16 Factor de aceleración (speedup). Factores que aparecen como sobrecarga Existencia de partes secuenciales que no se pueden dividir y las tiene que ejecutar un único procesador Cálculos adicionales que aparecen en el programa paralelo y no en el secuencial Tiempo de comunicación para enviar mensajes
17 Ley de Amdahl Determina una cota inferior para el tiempo de ejecución, aun cuando no se utilicen al máximo las técnicas de paralelismo (no considera las sobrecargas) M: nº de procesadores f: fracción de código no paralelizable t p ( M ) f t s 1 f M t s
18 Ley de Amdahl El factor de aceleración viene dado S( M ) f t s t s M 1 f t 1 M 1 f M s lim S( M ) 1 f Según Amdahl la razón para aumentar el número de procesadores debe ser para resolver problemas de tamaño mayor y no para resolver más rápidamente un problema de tamaño fijo M
19 Eficiencia Normalización de la aceleración entre el número de procesadores E S( M ) M x100% t P ts M x100% 1 1 ( M 1) x100% Define la fracción de tiempo que se utilizan los procesadores durante la computación, es decir, da una medida de lo adecuadamente que han sido utilizados los procesadores f
20 Coste C= tiempo de ejecución x Número de procesadores utilizados C ts S M t s M E
21 Escalabilidad Indica un diseño hardware que permite ampliar su tamaño para obtener una mejora en el rendimiento. Un sistema es escalable si el rendimiento del mismo se incrementa linealmente con relación al número de procesadores usados para una cierta aplicación. Parámetros que afectan a la escalabilidad Tamaño del sistema Frecuencia del reloj Tamaño del problema Tiempo de CPU Capacidad de memoria Pérdidas (overhead) de comunicación Coste del sistema
22 Balance de carga Consiste en distribuir de una forma equitativa la carga computacional entre todos los procesadores disponibles y con ello conseguir la máxima velocidad de ejecución
23 Balance de carga Se puede hacer Balance de carga estático (mapeado del problema o planificación del problema) Difícil estimar de forma precisa el tiempo de ejecución Difícil incorporar la variable retardo de comunicación Algoritmos con número indeterminado de pasos computacionales (algoritmo de búsqueda) Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Resulta en una alternativa mucho más eficiente que el balance de carga estático Balance de carga dinámico centralizado Balance de carga dinámico distribuido
24 Balance de carga Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Balance de carga dinámico centralizado El proceso maestro reparte las tareas, al acabarlas se les dará más. Programación por demanda o bolsa de trabajo. Es mejor repartir primero las tareas de mayor carga computacional. Balance de carga dinámico distribuido
25 Balance de carga Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Balance de carga dinámico centralizado Balance de carga dinámico distribuido Un grupo de maestros controla a un grupo de esclavos.
26 Costes de la comunicación mediante pasos de mensajes Tiempo de inicialización t s Tiempo en preparar el mensaje, tiempo ejecución algoritmo enrutamiento, tiempo de conexión entre el emisor y el enrutador Tiempo de salto t h Tiempo que tarda la cabecera de un mensaje en viajar entre dos nodos directamente conectados en la red Tiempo de transferencia por palabra t w Inverso del ancho de banda (inverso de cantidad de palabras por segundo)
27 Costes de la comunicación mediante pasos de mensajes ALGORITMOS DE ENRUTAMIENTO Almacenamiento y reenvío (store-andforward) t mt t s w h l Hasta que no se ha recibido el mensaje y almacenado no se envía. t com t Corte y continuación (cut-through) t com t s s lt mlt h w mt w
28 examen septiembre 2012
29 COSTES DE LA COMUNICACIÓN MEDIANTE MEMORIA COMPARTIDA El cálculo es mucho más complejo que cuando se usa paso de mensajes por: El programador tiene control reducido sobre la localización de los objetos en memoria Si el tamaño de la caché es mayor que el tamaño de los datos se produce hiperpaginación La sobrecarga por operaciones de coherencia de caché (invalidad y actualizar) es difícil de cuantificar La latencia de acceso a las diferentes palabras de una caché puede variar La lectura anticipada de palabras (depende del compilador y la disponibilidad de recursos) El fenómeno de false-sharing (diferentes procesadores acceden a distintos datos almacenados en el mismo bloque de caché) puede incluir una sobrecarga La competición por los recursos (depende de la ejecución del programa)
Granularidad y latencia
Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación
Más detallesComputación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE
Computación de Alta Performance Curso 2009 Objetivos: Estimación de desempeño de algoritmos paralelos. Comparación con algoritmos seriales. Factores intuitivos para evaluar la performance: Tiempo de ejecución.
Más detallesPROCESAMIENTO DISTRIBUIDO
Pág. 1 INTRODUCCIÓN PROCESAMIENTO DISTRIBUIDO Arquitectura de comunicaciones: Software básico de una red de computadoras Brinda soporte para aplicaciones distribuidas Permite diferentes Sistemas Operativos
Más detallesRedes de Altas Prestaciones
Redes de Altas Prestaciones Tema 1: Introducción Características de los sistemas distribuidos Necesidad de las arquitecturas de red de altas prestaciones Organización de la asignatura Características de
Más detallesClústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17
Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Al escuchar la palabra clúster se piensa en grandes maquinas exclusivas de los grandes de la computación
Más detallesTEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS. Introducción Hardware Software Aspectos de diseño
TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos:
Más detallesTEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS
TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores
Más detallesPARADIGMA y LENGUAJES DE PROGRAMACIÓN
CATEDRA CARRERA: PARADIGMA y LENGUAJES DE PROGRAMACIÓN LICENCIATURA EN SISTEMAS DE INFORMACION FACULTAD DE CIENCIAS EXACTAS QUIMICAS Y NATURALES UNIVERSIDAD NACIONAL DE MISIONES Año 2017 2do Cuatrimestre
Más detallesMULTIPROCESADORES MODELOS DE INTERCONEXIÓN
Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público
Más detallesTema 3: Sistemas de Alta Velocidad
Tema 3: Sistemas de Alta Velocidad A qué llamamos Alta Velocidad? Obtención, procesado y distribución de la información con rapidez. Por qué Alta Velocidad? Necesidad de comunicaciones rápidas: Mayor Ancho
Más detallesGRADO EN INGENIERÍA DE COMPUTADORES
GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento
Más detallesModelos de computadores paralelos
Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos
Más detallesProgramación en Entornos Paralelos: MPI
1-11 Marzo de 2017 FACET -UNT Programación en Entornos Paralelos: MPI Graciela Molina mgracielamolina@gmailcom TRADICIONALMENTE Procesamiento secuencial 2 TRADICIONALMENTE Procesamiento secuencial Si ya
Más detallesArquitectura de Computadoras. Clase 9 Procesamiento paralelo
Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.
Más detalles6.1 Base De Datos Centralizada
6. Infraestructura El tipo de infraestructura o bien arquitectura, se debe de elegir pensando en el sistema a ejecutar, las necesidades que este tendrá, el tipo de usuario que lo utilizará, la seguridad
Más detallesArquitecturas: Clusters. Edgar Valderrama Lucio Mederos
Arquitecturas: Clusters Edgar Valderrama Lucio Mederos Qué es un cluster? Es un sistema compuesto por varias computadoras (nodos) unidas por una red que se comporta como una única entidad. De un cluster
Más detallesMultiprocesadores de Memoria Compartida
Arquitectura (10/11) Multiprocesadores Memoria Compartida Características MMC Res Interconexión para MMC Programación MMC Tipos MMC 1 Arquitectura (10/11) Características MMC Prestaciones (MMC) = f (coste
Más detallesComputación de Altas Prestaciones Sistemas computacionales
Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas
Más detallesParalelismo _Arquitectura de Computadoras IS603
Paralelismo _Arquitectura de Computadoras IS603 INTRODUCCION El objetivo de esta investigación, es conceptualizar las diferentes tipos de paralelismo referente al área de Arquitectura de Computadoras,
Más detallesRelación de Ejercicios. Programación Paralela 4º de Grado en Ingeniería Informática.
1. Por qué el modelo de programación que se sigue al programar con MPI es independiente de la asignación? 2. Describir gráficamente una solución eficiente para realizar una operación de reducción global
Más detallesIngeniería en Computación
Universidad Autónoma del Estado de México Centro Universitario UAEM Valle de México Ingeniería en Computación Unidad de Aprendizaje: Programación Paralela y Distribuida Tema: Introducción a los Sistemas
Más detallesTEMA 4 PROCESAMIENTO PARALELO
TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de
Más detallesCOMPUTACIÓN DE ALTA PERFORMANCE
COMPUTACIÓN DE ALTA PERFORMANCE Curso 2010 Sergio Nesmachnow (sergion@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy) Grupo de Procesamiento Paralelo Aplicado Centro de Cálculo COMPUTACIÓN DE ALTA PERFORMANCE
Más detallesARQUITECTURAS PARA PROCESAMIENTO PARALELO
1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes
Más detallesProgramación Concurrente y Paralela. Unidad 1 Introducción
Programación Concurrente y Paralela Unidad 1 Introducción Contenido 1.1 Concepto de Concurrencia 1.2 Exclusión Mutua y Sincronización 1.3 Corrección en Sistemas Concurrentes 1.4 Consideraciones sobre el
Más detallesMINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC
MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología
Más detallesUNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM
UNIDAD II Metodología de programación paralela UNIDAD II: Metodología de programación paralela Metodología de programación paralela Algunos conceptos que nos ayudarán a entender mejor el tema. Modelos
Más detallesSD Examen 2 EVA. 1 of 11 2/5/2013 8:49 PM. Paralelo 1? Evaluaciones? SD Examen 2 EVA. Comenzado: Feb 5 en 8:50pm
Paralelo 1? Evaluaciones? SD Examen 2 EVA SD Examen 2 EVA Comenzado: Feb 5 en 8:50pm Question 1: 1 puntos Los [ Seleccionar ] son la union logica de multiples equipos informaticos que funcionan como uno.
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo
Más detallesComputación 1. Roles en la interconexión
Computación 1 Roles en la interconexión Contenido Roles en la Interconexión Host y Terminales Servidores y Clientes Arquitectura Cliente-Servidor Servidor y Cliente son programas Protocolo de Servicio
Más detallesArquitectura de computadores I
Arquitectura de computadores I Perspectiva de alto nivel de los computadores Septiembre de 2017 Contenido Componentes del computador Funcionamiento del computador Estructuras de interconexión Interconexión
Más detallesIntroducción a los Sistemas Multiprocesadores
Introducción a los Sistemas Multiprocesadores Multiprocesadores estilo Von Neumann Modelos de Organización Modelos de Programación Clasificación de los Multiprocesadores Por qué Sistemas Multiprocesadores?
Más detallesComputación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer
Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Supercomputadores 2 Qué es un supercomputador? Top500
Más detallesArquitecturas Paralelas: Redes de interconexión y Medición de performance
Arquitecturas Paralelas: Redes de interconexión y Medición de performance Versión 2014 Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey. Redes de interconexión
Más detallesMulticomputadores. Características Generales. Redes de Interconexión. Topologías de Interconexión. Estrategias de Conmutación y Control de Flujo
ulticomputadores Características Generales Redes de Interconexión Topologías de Interconexión Estrategias de Conmutación y Control de Flujo Algoritmo de Encaminamiento Organización del Switch Interfaz
Más detallesUnidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED
Unidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED Índice 1. Sistemas centralizados 2. Sistemas cliente-servidor 3. Sistema
Más detallesIntroducción al Computo Distribuido
Introducción al Computo Distribuido Facultad de Cs. de la Computación Juan Carlos Conde Ramírez Distributed Computing Contenido 1 Introducción 2 Importancia del Hardware 3 Importancia del Software 1 /
Más detallesEntornos de programación paralela basados en modelos/paradigmas
Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original
Más detallesMULTIPROCESADORES TIPOS DE PARALELISMO
Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público
Más detallesUniversidad Nacional Autónoma de México Instituto de Geofísica
Universidad Nacional Autónoma de México Instituto de Geofísica Aplicación del Cómputo Paralelo a la Modelación de Sistemas Continuos en Ciencias e Ingeniería Presentan: Antonio Carrillo Ledesma Ismael
Más detallesModelos de Programación Paralela Prof. Gilberto Díaz
Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería
Más detallesINTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr.
INTRODUCCION A LA COMPUTACION PARALELA 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology Dr. Pablo Guillén Universidad de Los Andes 22-26 de Noviembre de 2004 Qué es el Paralelismo?
Más detallesCon estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:
Taxonomía de las arquitecturas 1 Introducción Introducción En este trabajo se explican en detalle las dos clasificaciones de computadores más conocidas en la actualidad. La primera clasificación, es la
Más detallesHoja de respuestas. Examen tipo A
Hoja de respuestas. Examen tipo A Cuestiones 1. La memoria virtual nos permite: Emular la RAM mediante la utilización de los dispositivos de almacenamiento Tener una memoria de capacidad infinita en nuestro
Más detallesProgramación Gráfica de Altas Prestaciones
rogramación Gráfica de Altas restaciones lataformas de altas prestaciones para Infomática Gráfica. Máster de Desarrollo de Software Depto. de Lenguajes y Sistemas Informáticos lsi.ugr.es/~jmantas/ga 1.
Más detallesTaxonomía de las arquitecturas
Taxonomía de las arquitecturas 1 INTRODUCCIÓN 2 2 CLASIFICACIÓN DE FLYNN 3 2.1 SISD (SINGLE INSTRUCTION STREAM, SINGLE DATA STREAM) 3 2.2 SIMD (SINGLE INSTRUCTION STREAM, MULTIPLE DATA STREAM) 4 2.2.1
Más detallesBalance Dinámico de Carga en Super-Cómputo
Balance Dinámico de Carga en Super-Cómputo Dr. Manuel Aguilar Cornejo Presentación elaborada por: Juan Santana Santana 1 Introducción Balance dinámico de carga Librería DLML Algoritmo utilizando una topología
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesEvaluación del rendimiento de Algoritmos Paralelos y/o Concurrentes
UNIVERSIDAD AMERICANA Programación concurrente Evaluación del rendimiento de Algoritmos Paralelos y/o Concurrentes Recopilación de teoría referente a la materia Ing. Luis Müller 2011 Esta es una recopilación
Más detallesPROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela
PROGRAMACIÓN PARALELA Modelos de programación paralela Paradigmas de programación paralela Tipos de paralelismo Paso de mensajes Paralelismo de datos Memoria compartida Paradigmas de programación paralela
Más detallesArquitectura de Computadoras
Arquitectura de Computadoras Arquitecturas Von Neumann Harvard Otras (Multiprocesador, Sistemas distribuidos) Arquitectura de Computadores Corresponde a la estructura, organización, e interconexión de
Más detallesTopologías de Red. Hosts:
La topología define la estructura de una red, dependiendo de la topología será la distribución física de la red y dispositivos conectados a la misma, así como también las características de ciertos aspectos
Más detallesTEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Más detallesLusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Más detallesEjecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez.
Paralelismo Conceptos generales Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez. Ejecución paralela: varias tareas/instrucciones de un programa
Más detallesCARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR
CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA
Más detallesRendimiento y sus factores
Rendimiento y sus factores Rendimiento 1. m. Producto o utilidad que rinde o da alguien o algo. 2. m. Proporción entre el producto o el resultado obtenido y los medios utilizados. Real Academia Española
Más detallesTema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas
Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Arquitectura de Computadores Curso 2009-2010 Transparencia: 2 / 21 Índice Introducción Taxonomía de Flynn
Más detallesPROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:
PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de
Más detallesCómputo Paralelo en Redes Locales de Computadoras
Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor
Más detallesTutorías con Grupos Reducidos (TGR) Parte 1: Evaluación de prestaciones
Tutorías con Grupos Reducidos (TGR) Parte 1: Evaluación de prestaciones ESTRUCTURA DE COMPUTADORES Grupo de Arquitectura de Computadores (GAC) Dyer Rolán García (GAC) Evaluación de Prestaciones Curso 2011/2012
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para
Más detallesDiseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es
Más detallesDiseño de Algoritmos Paralelos Prof. Gilberto Díaz
Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Diseño de Algoritmos Paralelos Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería
Más detallesIntroducción a los Sistemas Operativos y Redes. Clase 2: Topologías de Redes
Introducción a los Sistemas Operativos y Redes Clase 2: Topologías de Redes Introducción a los Sistemas Operativos y Redes Topologías de Red: Topología Física. Topología Lógica. Hardware de Red. Medios
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesARQUITECTURA DEL COMPUTADOR
1-11 Marzo de 2017 FACET -UNT ARQUITECTURA DEL COMPUTADOR Graciela Molina gmolina@herrera.unt.edu.ar m.graciela.molina@gmail.com 1 MODELO VON NEUMANN RAM J. Von Neumann frente a la computadora IAS, 1952.
Más detallesALGORITMO DE COMPRESIÓN DE HUFFMAN PARA PLATAFORMAS DISTRIBUIDAS IMPLEMENTADO EN CLUSTER BASADO EN MPI
ALGORITMO DE COMPRESIÓN DE HUFFMAN PARA PLATAFORMAS DISTRIBUIDAS IMPLEMENTADO EN CLUSTER BASADO EN MPI Rincón Carlos, Urdaneta Jesús, Leal Aurely, Acurero Alfredo y Bracho David. Departamento de Computación,
Más detallesDiagrama de despliegue
Diagrama de despliegue Definición.- Los Diagramas de Despliegue muestran las relaciones físicas de los distintos nodos que componen un sistema y el reparto de los componentes sobre dichos nodos. La vista
Más detallesJosé Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES
José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES MÁSTER EN NUEVAS TECNOLOGÍAS EN INFORMÁTICA Diciembre 2010 Introducción Por qué utilizar Matlab paralelo? MATLAB es
Más detallesComputación de Altas Prestaciones Sistemas computacionales
Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco
Más detallesTEMA 2: DEFINICIONES Y CONCEPTOS. Ing. Jonathan Quiroga Tinoco Conalep Tehuacán P.T.B. en SOMA
TEMA 2: DEFINICIONES Y CONCEPTOS Ing. Jonathan Quiroga Tinoco Conalep Tehuacán P.T.B. en SOMA RED (MODELO DE INTERCONEXIÓN DE SISTEMAS ABIERTOS) (ORGANIZACIÓN INTERNACIONAL DE ESTÁNDARES) Aplicación Presentación
Más detallesClasificación de Flynn de los computadores
Clasificación de Flynn de los computadores Single instruction, single data stream - SISD Single instruction, multiple data stream - SIMD Multiple instruction, single data stream - MISD Multiple instruction,
Más detallesCOMUNICACIONES TRANSMISIÓN DE DATOS REDES DE ORDENADORES INTERNET. Sistemas de transmisión de datos
COMUNICACIONES TRANSMISIÓN DE DATOS REDES DE ORDENADORES INTERNET Sistemas de transmisión de datos Transmisión en serie: Los bits de cada palabra se transfieren secuencialmente por una única línea de datos
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesArquitectura de Computadoras para Ingeniería
Arquitectura de Computadoras para Ingeniería (Cód. 7526) 1 Cuatrimestre 2016 Dra. DCIC - UNS 1 Multiprocesadores 2 Clasificación de Flynn Clasificación de 1966 En función del flujo de instrucciones y datos
Más detallesPlataformas paralelas
Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados
Más detallesPrograma. Conjunto de elementos que interaccionan con una computadora ofreciendo una salida a una entrada ( programa ).
Tema 2: Sistemas Computacionales Conjunto de elementos que interaccionan con una computadora ofreciendo una salida a una entrada ( programa ). Programa Input Condiciones del problema Output Solución del
Más detallesArquitectura de Computadores (obligatoria)
Arquitectura de Computadores (obligatoria) Profesores responsables: Pau Micó Tormos (teoría y prácticas) Despacho: F4D1 Créditos: 6 (4.5 Teoría + 1.5 Prácticas) Semestre: 3A Número de grupos de aula: 1
Más detallesTIPOS DE REDES Y TOPOLOGIAS
TIPOS DE REDES Y TOPOLOGIAS 1 Concepto Una Red es un conjunto de ordenadores interconectados entre si mediante cable o por otros medios inalámbricos. 2 Objetivos Compartir recursos: archivos, impresoras,
Más detallesAntonio Carrillo Ledesma Ismael Herrera Revilla
Universidad Nacional Autónoma de México Instituto de Geofísica Aplicación del Cómputo Paralelo a la Modelación de Sistemas Continuos en Ciencias e Ingeniería Mediante el Método FETI Dual-Primal Presentan:
Más detallesARQUITECTURA DE VON NEUMANN Y HARVARD
ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA VON NEUMANN En esta arquitectura se observa que las computadoras utilizan el mismo dispositivo de almacenamiento para datos e instrucciones conectados
Más detallesFacultad de Ingeniería Industrial y de Sistemas v1.0 MA781U PROCESOS DISTRIBUIDOS
PROCESOS DISTRIBUIDOS Preparado por: Angel Chata Tintaya (angelchata@hotmail.com) Resumen El proceso cliente servidor es la clave para comprender el potencial de los sistemas de información y las redes
Más detalles1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos
Tema 5: Sistemas Operativos Distribuidos 1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño 1 1. Introducción Sistema Informático Distribuido: Colección de S.I. autónomos
Más detallesTEMA 2: PROGRAMACIÓN PARALELA (Y III)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Más detallesUniversidad de Los Andes Facultad de Ciencia Forestales y Ambientales Escuela de Ingeniería Forestal
Universidad de Los Andes Facultad de Ciencia Forestales y Ambientales Escuela de Ingeniería Forestal Redes Tema5. Informática. Régimen Anualidad Prof. Kuong-F Chang. Mérida, Marzo 2016 Redes Concepto Una
Más detallesPrograma Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO
Programa Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO Computacionales Área de Formación : Sustantiva Profesional Horas teóricas: 4 Horas prácticas: 0 Total de Horas: 4 Arquitectura de computadoras
Más detallesIngeniería en computación Tipos de sistemas operativos
Ingeniería en computación Tipos de sistemas operativos Unidad de competencia III: Sistemas Operativos Distribuidos Ing. Diego Armando Ramírez Avelino 17/10/2017 1 Unidad de competencia I Objetivo Entender
Más detallesHERRAMIENTAS SOFTWARE PARA SISTEMAS DISTRIBUIDOS
HERRAMIENTAS SOFTWARE PARA SISTEMAS DISTRIBUIDOS José Luis Pastrana Brincones (pastrana@lcc.uma.es) Departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga Introducción. El hombre,
Más detallesMiguel Hermanns. 19 de abril de 2007
Universidad Politécnica de Madrid, España 19 de abril de 2007 Estructura de la clase 1 Motivación de la paralela 2 3 4 paralela 5 Conceptos generales y habitual 6 7 Qué es el cálculo en paralelo? Tradicionalmente
Más detallesIntroducción a las Computadoras. Capítulo 3 Buses del Sistema
Introducción a las Computadoras Capítulo 3 Buses del Sistema Concepto de Programa Los sistemas de propósito específico no son flexibles El Hardware de propósito general puede realizar diferentes tareas,
Más detallesServet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo
1/41 Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo Jorge González-Domínguez*, Guillermo L. Taboada, Basilio B. Fraguela, María J. Martín, Juan Touriño
Más detallesMÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML
INGENIERÍA DE SOFTWARE II MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML Gabriel Tamura gtamura@icesi.edu.co Cali, 2008 Arquitectura de Software con UML PROGRAMA 1. Motivación 2. La Taxonomía de Flynn 3.
Más detallesESCUELA DE INGENIERIA Informática Y Sistemas
ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN
Más detallesAURELIO CHÁVEZ ACHA. Clasificación de redes de acuerdo a topología
AURELIO CHÁVEZ ACHA Clasificación de redes de acuerdo a topología La topología de redes es la forma física o lógica de como se encuentran conectados los dispositivos en una red. La topología esta definida
Más detallesSoluciones a ejercicios de Fundamentos
Soluciones a ejercicios de Fundamentos J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores Grupo ARCOS
Más detallesIntroduccion a Sistemas Operativos. Ej: Linux
Universidad Nacional de Ingeniería Facultad de Ciencias Física Computacional CC063 Introduccion a Sistemas Operativos. Ej: Linux Prof: J. Solano 2012-I Resumen Qué hacen los sistemas operativos? Organización
Más detallesTema III: Componentes de un Sistema Operativo
Tema III: Componentes de un Sistema Operativo Concepto de proceso Jerarquía de memoria: Concepto de memoria cache Memoria virtual Partición Sistema de ficheros Sistema de entrada/salida: Driver y controladora
Más detallesGRADUADO EN INGENIERÍA DE COMPUTADORES - FICHA TÉCNICA
GRADUADO EN INGENIERÍA DE COMPUTADORES - FICHA TÉCNICA DATOS DESCRIPTIVOS ASIGNATURA: Procesamiento Paralelo Nombre en inglés: Parallel Processing MATERIA: Algorítmica y complejidad Créditos Europeos:
Más detallesSistemas Operativos Distribuidos
Contenidos del Tema Gestión de procesos Modelos de sistema Asignación de procesadores Estrategias dinámicas Estrategias estáticas Ejecución remota de procesos Modelos de sistema Organización de los procesadores
Más detalles