Modelado de los computadores paralelos
|
|
|
- Ángeles Ojeda Castellanos
- hace 7 años
- Vistas:
Transcripción
1 Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente del libro y de la conferencia de Casiano Rodríguez sobre OpenM 1
2 rogramación paralela Uso de varios procesadores trabajando juntos para resolver una tarea común: Cada procesador trabaja en una porción del problema Los procesos pueden intercambiar datos, a través de: la memoria (Modelo de Memoria Compartida) por una red de interconexión (Modelo de aso de Mensajes) 2
3 aralelismo en monoprocesadores Segmentación encauzada. ipeline Múltiples unidades funcionales Unidades vectoriales (SSE de Intel) rocesadores de E/S Jerarquía de memorias División de memoria en bloques aralelismo a nivel de instrucción (VLIW) Ejecución fuera de orden Especulación Multithreading (posible programación paralela)... 3
4 Segmentación múltiples unidades 4
5 Jerarquía de memorias 5
6 Very Long Instruction Word 6
7 rocesador segmentado Se segmenta el proceso de ejecución de la instrucción: búsqueda, decodificación, ejecución, almacenamiento 7
8 rocesador supersegmentado Cada etapa se divide en subetapas, y se lanzan subetapas sin completar el ciclo de reloj 8
9 rocesador superescalar Lanzar varias instrucciones de forma simultánea (ejecución fuera de orden, especulación...) 9
10 Multithreading Se lanzan varios hilos simultáneamente, que comparten recursos 10
11 Modelos computadores paralelos clasificación de Flynn 11
12 SISD SECUENCIAL (SISD) Modelo Von Neuman Memoria Instrucciones: de memoria a procesador Datos: entre memoria y procesador rocesador 12
13 SIMD Una única Unidad de Control. La misma instrucción se ejecuta síncronamente por todas las unidades de procesamiento. programa instrucciones rocesador rocesador rocesador datos 13
14 MIMD Cada procesador ejecuta un programa diferente independientemente de los otros procesadores. programa instrucciones programa programa instrucciones rocesador rocesador datos datos instrucciones... rocesador datos 14
15 Modelos de computadores paralelos M M M M M M Network Memoria distribuida cada procesador tiene su propia memoria local. Se utiliza paso de mensajes para intercambiar datos. BUS M em o ry Memoria compartida un único espacio de memoria. Todos los procesadores tienen acceso a la memoria a través de una red de conexión: - Bus - Red de barras cruzadas - Red multietapa 15
16 Sistemas de memoria compartida BUS Mem ory Uniform memory access (UMA) Cada procesador tiene acceso uniforme a memoria. También se llaman symmetric multiprocessors (SMs) Non-uniform memory access (NUMA) El tiempo de acceso depende de dónde están los datos. El acceso local es más rápido. Más fácil y barato de escalar que SMs BUS BUS Me m o ry Me m o ry Ne tw o rk 16
17 Sistemas de memoria compartida NUMA: SGI Origin 2000 (antiguo) 17
18 Sistemas de memoria compartida (cc-numa) Ben-Arabí (Centro de Supercomputación de Murcia): Memoria compartida + cluster: 944 cores Arabí: cluster de 102 nodos con 2 quad-core Ben: H Superdome, cc-numa con 128 cores Composición jerárquica con interconexiones crossbar: los computadores y 2 placas de crossbard. Cada computador tiene 4 dual-core Itanium-2 y un controlador para conectar la CU con memoria local y los commutadores crossbar El ancho de banda máximo a memoria en un computador es 17.1 GB/s y con los conmmutadores 34.5 GB/s: el acceso a la memoria es no uniforme, y los usuarios no controlan a qué cores van sus threads, uso de sistema de colas 18
19 19
20 Memoria compartida Saturno, imagen con hwloc 20
21 Sistemas de memoria distribuida Topologías de red red anillo Diámetro: p/2 Hipercubo Malla Diámetro: p Servidor Estaciones de de ficheros trabajo 21
22 Sistemas de memoria distribuida: híbrido, heterogéneo, jerárquico marte GU luna mercurio GU 112 GU
23 Evolución de los sistemas paralelos TO500 23
24 En Murcia ersonal: Uso de OpenM y MI en monoprocesadores, bipros, quad; GU Empresas y Administración: Redes o multiprocesadores de reducido tamaño Uso para manejo de volúmenes de datos grandes, sin programación paralela Uso de programas paralelos desarrollados por otros Ben-Arabí: supercomputador MC+clusters, computación científica+empresas Universidad: Cartagena: híbrido MC+MD, 12 nodos de 8 núcleos + 2 nodos de 16 núcleos Murcia: híbrido MC+MD, 12 nodos de 8 núcleos? Resolución de problemas científicos, uso mínimo de paralelismo Grupos de investigación Computación Científica y rogramación aralela: Redes, clusters, GU: para computación científica o paralelismo CGUM: tetra con GU 112 c (luna)+2 hexa (marte, mercurio) con GU 1024 c cada uno; cluster (sol): 3 bipro con duales+ 2 bipros; multicore 24 c con GU 448 c 24 (saturno)
25 Sistemas actuales y futuros Multicore Actual: Bipro y Quad en portátiles, y en sobremesa también hexa, octa... rocesadores específicos Gráficos GU De tratamiento de señal DS FGA y heterogéneos embebidos De juegos, S3 Computadores heterogéneos CU+GU Futuro: lataformas híbridas Itanium2+Xeon con MC Distribuidos Redes, Grid, Web, Cloud 2, móviles 25
26 ara la próxima sesión Ir pensando temas alternativos para presentaciones del día 7 de noviembre. Ejemplos: cuántica, paralelismo en.net... Se verá programación en memoria compartida, con OpenM. Consultar la parte correspondiente del capítulo 3 del libro de I. Traer los portátiles para hacer las prácticas a continuación de la clase y en el mismo aula? La primera práctica (común) se hará con el problema D del concurso de programación paralela de Es una multiplicación de cuatro matrices. La entrega es el 30 de noviembre. Consultar en la página del concurso: cpp.fpcmur.es. Está resuelto, pero habrá que hacerlo en OpenM, MI y MI+OpenM, y se 26 valorarán innovaciones y batir el record.
Modelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Modelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Computación de Altas Prestaciones Sistemas computacionales
Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco
Computación de Altas Prestaciones Sistemas computacionales
Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas
Modelos de computadores paralelos
Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos
Taxonomía de las arquitecturas
Taxonomía de las arquitecturas 1 INTRODUCCIÓN 2 2 CLASIFICACIÓN DE FLYNN 3 2.1 SISD (SINGLE INSTRUCTION STREAM, SINGLE DATA STREAM) 3 2.2 SIMD (SINGLE INSTRUCTION STREAM, MULTIPLE DATA STREAM) 4 2.2.1
Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:
Taxonomía de las arquitecturas 1 Introducción Introducción En este trabajo se explican en detalle las dos clasificaciones de computadores más conocidas en la actualidad. La primera clasificación, es la
Nociones básicas de computación paralela
Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad
Taller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para
Arquitectura de Computadoras para Ingeniería
Arquitectura de Computadoras para Ingeniería (Cód. 7526) 1 Cuatrimestre 2016 Dra. DCIC - UNS 1 Multiprocesadores 2 Clasificación de Flynn Clasificación de 1966 En función del flujo de instrucciones y datos
MULTIPROCESADORES TIPOS DE PARALELISMO
Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público
Arquitectura de Computadoras. Clase 9 Procesamiento paralelo
Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.
ALGORITMOS PARALELOS Tema 1: Introducción a la Computación Paralela
ALGORITOS ARALELOS Tema 1: Introducción a la Computación aralela Necesidad de la computación paralela Qué es la programación paralela? odelos de computadores Evaluación de los computadores paralelos Introducción
Clasificación de Flynn de los computadores
Clasificación de Flynn de los computadores Single instruction, single data stream - SISD Single instruction, multiple data stream - SIMD Multiple instruction, single data stream - MISD Multiple instruction,
Multiprocesamiento en Lenguaje C Conceptos básicos de la computación paralela
Multiprocesamiento en Lenguaje C Conceptos básicos de la computación paralela Pertinencia de la enseñanza del cómputo paralelo en el currículo de las ingenierías Conceptos básicos de la computación paralela
Introducción a la Computación Paralela
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Introducción a la Computación Paralela Bibliografía básica Introducción Del curso, capítulos 1 a 6 De esta sesión, capítulos
Arquitecturas de Altas Prestaciones y Supercomputación
Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción
Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas
Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Arquitectura de Computadores Curso 2009-2010 Transparencia: 2 / 21 Índice Introducción Taxonomía de Flynn
Lusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín [email protected] www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Procesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina [email protected]
MULTIPROCESADORES MODELOS DE INTERCONEXIÓN
Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público
Trabajo de investigación Paralelismo en el procesador
Universidad Nacional Autónoma de Honduras Facultad de Ingeniería Departamento de Ingeniería en Sistemas Trabajo de investigación Paralelismo en el procesador Saúl Armando Laínez Girón 20101006758 IS603
Paralelismo en el procesador
2017 Paralelismo en el procesador ARQUITECTURA DE COMPUTADORAS ING. ELMER PADILLA AUTOR: GERARDO ROBERTO MÉNDEZ LARIOS - 20111013326 Ciudad universitaria, Tegucigalpa M.D.C., 04 de mayo del 2017. Contenido
Procesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina [email protected]
ARQUITECTURA DEL COMPUTADOR
1-11 Marzo de 2017 FACET -UNT ARQUITECTURA DEL COMPUTADOR Graciela Molina [email protected] [email protected] 1 MODELO VON NEUMANN RAM J. Von Neumann frente a la computadora IAS, 1952.
Introducción a las arquitecturas paralelas
Capítulo 4 Introducción a las arquitecturas paralelas Hasta este momento se ha estudiado el procesamiento a nivel del procesador. Se ha visto ya que la segmentación es un primer mecanismo de paralelismo,
Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados
Seminario 1: Procesadores paralelos
Seminario 1: Procesadores paralelos Índice Introducción Procesadores superescalares Procesadores VLIW Procesadores vectoriales Índice Introducción Procesadores superescalares Procesadores VLIW Procesadores
1. Motivación. 2. Procesadores superescalares. 3. Procesadores VLIW. 4. Procesadores supersegmentados.
TEMA 9: LANZAMIENTO MÚLTIPLE DE INSTRUCCIONES 1. Motivación. 2. Procesadores superescalares. 3. Procesadores VLIW. 4. Procesadores supersegmentados. Bibliografía: J.L. Hennessy & D. A. Patterson. Computer
Organización de Computadoras. Pipeline Continuación
Organización de Computadoras Pipeline Continuación Extensión del pipeline para manejar operaciones multiciclo (unpipelined) Extensión del pipeline para manejar operaciones multiciclo El pipeline del MIPS
EVOLUCIÓN DE LOS PROCESADORES
EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora
Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez.
Paralelismo Conceptos generales Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez. Ejecución paralela: varias tareas/instrucciones de un programa
07 y 08 Sistemas distribuidos y paralelos y tarea 02
07 y 08 Sistemas distribuidos y paralelos y tarea 02 Prof. Edgardo Adrián Franco Martínez http://computacion.cs.cinvestav.mx/~efranco [email protected] Estructuras de datos (Prof. Edgardo A. Franco)
Grupo de Computación Científica y Programación Paralela Universidad de Murcia
Grupo de Computación Científica y Programación Paralela Universidad de Murcia http://www.um.es/pcgum/ Presentación Líneas de Investigación, Máster en Informática, Universidad de Murcia, diciembre 2013
Grupo de Computación Científica y Programación Paralela
Grupo de Computación Científica y Programación Paralela Universidad de Murcia [email protected] http://dis.um.es/~domingo Reunión de proyecto de investigación, Valencia, 12-13 noviembre 2009 Contents 1 El
TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Conceptos básicos de procesamiento paralelo (1)
Conceptos básicos de procesamiento paralelo (1) Paralelismo: En un sistema computador hay paralelismo cuando, al menos, durante algunos instantes de tiempo ocurren varios eventos similares Ejecución concurrente
Programación Concurrente y Paralela. Unidad 1 Introducción
Programación Concurrente y Paralela Unidad 1 Introducción Contenido 1.1 Concepto de Concurrencia 1.2 Exclusión Mutua y Sincronización 1.3 Corrección en Sistemas Concurrentes 1.4 Consideraciones sobre el
ÍNDICE TEMÁTICO. 4 Salida Paralelos y Serie. 7 Programación de Microprocesadores 10 4 Características de los 4 8
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉICO FACULTAD DE ESTUDIOS SUPERIORES CUAUTITLÁN LICENCIATURA: INGENIERÍA EN TELECOMUNICACIONES, SISTEMAS Y ELECTRÓNICA DENOMINACIÓN DE LA ASIGNATURA: Microprocesadores
Memoria compartida simétrica
Memoria compartida simétrica Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento
Sistemas Operativos. Algo de Sistemas Operativos, Arquitecturas y Paralelismo
Sistemas Operativos Algo de Sistemas Operativos, Arquitecturas y Paralelismo 1 Qué es un Sistema Operativo? Administra recursos Arma una máquina virtual Comunicación con el usuario Facilita el uso (herramientas,
MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML
INGENIERÍA DE SOFTWARE II MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML Gabriel Tamura [email protected] Cali, 2008 Arquitectura de Software con UML PROGRAMA 1. Motivación 2. La Taxonomía de Flynn 3.
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de
Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida
Tema 8: Multiprocesadores de memoria compartida y distribuida Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida 3. Medio de interconexión de
Redes de Altas Prestaciones
Redes de Altas Prestaciones Tema 1: Introducción Características de los sistemas distribuidos Necesidad de las arquitecturas de red de altas prestaciones Organización de la asignatura Características de
Arquitectura de Computadores (obligatoria)
Arquitectura de Computadores (obligatoria) Profesores responsables: Pau Micó Tormos (teoría y prácticas) Despacho: F4D1 Créditos: 6 (4.5 Teoría + 1.5 Prácticas) Semestre: 3A Número de grupos de aula: 1
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida
UNIVERSIDAD DE GUADALAJARA
UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS ARQUITECTURA DE COMPUTADORAS
TEMA 4 PROCESAMIENTO PARALELO
TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores [email protected]
Sistemas Operativos. Curso 2016 Introducción
Sistemas Operativos Curso 2016 Introducción Agenda Introducción a los sistemas operativos. Evolución histórica de los sistemas operativos: Sistemas por lotes. Sistemas por lotes multiprogramados. Sistemas
Paralelismo _Arquitectura de Computadoras IS603
Paralelismo _Arquitectura de Computadoras IS603 INTRODUCCION El objetivo de esta investigación, es conceptualizar las diferentes tipos de paralelismo referente al área de Arquitectura de Computadoras,
Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia)
Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia) 1 / 31
TEMA 2: Organización de computadores
TEMA 2: Organización de computadores Procesadores Memorias Dispositivos de E/S 1 Computador Procesador, memoria, dispositivos de E/S CPU Unidad de control Unidad aritmética y lógica Registros Dispositivos
Programación Paralela y Concurrente
Programación Paralela y Concurrente M. en C. Mario Farías-Elinos Contenido Introducción Paralelismo, Concurrencia, Pipeline. Complejidad, Threads, Proceso. Objetivos Modelos de computación SISD, SIMD,
Computación de Alta Performance Curso 2009 ARQUITECTURAS PARALELAS ARQUITECTURAS PARALELAS
Computación de Alta Performance Curso 2009 CONTENIDO Arquitecturas secuenciales y paralelas. Clasificación de Flynn. Modelo SIMD. GPUs. Modelo SISD. Modelo SIMD. Arquitectura MIMD MIMD con memoria compartida.
TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS. Introducción Hardware Software Aspectos de diseño
TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos:
El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza.
El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza. Contenido de la unidad. 1.1. Arquitectura básica y sus operaciones. 1.2. Tipos de arquitecturas en la evolución del
TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS
TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores
SISTEMAS DE MULTIPROCESAMIENTO
SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función
CDI Arquitecturas que soportan la concurrencia. granularidad
granularidad Se suele distinguir concurrencia de grano fino es decir, se aprovecha de la ejecución de operaciones concurrentes a nivel del procesador (hardware) a grano grueso es decir, se aprovecha de
Pipeline de instrucciones
Pipeline de instrucciones Manejo de Interrupciones Tipos: - Síncronas - Asíncronas Asíncronas: No están asociadas a ninguna instrucción. Se atienden normalmente al final de la instrucción en ejecución.
Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas
Paralelismo MPI Paso de mensajes Francisco García Sánchez Departamento de Informática y Sistemas Contenido Introducción 1) Uso de MPI 2) Multiplicación de matrices 3) Ordenación por mezcla 4) Programación
ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte)
ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte) Profesor: Fernando Pardo Carpio Valencia, 27 de septiembre de 2004 Prefacio El temario recogido en estos apuntes se corresponde con la segunda
Clasificación de las Arquitecturas
Clasificación de las Arquitecturas MIA José Rafael Rojano Cáceres Arquitectura de Computadoras I Por la taxonomía de Flynn 1 Flynn Flujo de datos Simple Múltiple Flujo de datos Simple Múltiple SISD MISD
Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik
Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo
ARQUITECTURAS AVANZADAS
ARQUITECTURAS AVANZADAS Profesor: Fernando Pardo Carpio Valencia, 30 de enero de 2002 Prefacio El temario recogido en estos apuntes se corresponde con la asignatura de Arquitecturas Avanzadas de la de
Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17
Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Al escuchar la palabra clúster se piensa en grandes maquinas exclusivas de los grandes de la computación
Proceso. Threads, SMP, and Microkernels. Multithreading. Proceso
Proceso Threads, SMP, and Microkernels Capítulo 4 Propiedad de Recurso el proceso se ubica en un espacio de direccionamiento virtual que tiene la imagen del proceso Planificación/ejecución sigue un camino
Heterogénea y Jerárquica
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida
