Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
|
|
- Sebastián Toledo Escobar
- hace 7 años
- Vistas:
Transcripción
1 Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
2 Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados 4. Software Utilizado 5. Planteamiento del Problema 6. Interés del Problema 7. Estudio Experimental 8. Conclusiones
3 Introducción En la mayoría de problemas científicos y de ingeniería la computación se lleva a cabo mediante el uso de rutinas matriciales de álgebra lineal implementadas en librerías como BLAS, LAPACK... Las últimas versiones de estas librerías (MKL, ATLAS, Goto BLAS) permiten multithreading y pueden ser usadas eficientemente en sistemas multicore. Pero Que ofrezcan implementaciones eficientes no implica que sean usadas eficientemente por científicos Necesario estudiar su comportamiento en diferentes sistemas, variar num_threads, tamaño del problema...
4 Línea de Investigación Analizar cómo se comporta la rutina de multiplicación de matrices en sistemas cc-numa multicore en función del tamaño del problema y del número de threads. Decidir el número de threads a usar para obtener el menor tiempo de ejecución. Usar la información obtenida para desarrollar versión de 2 niveles (OpenMP+MKL) de la multiplicación que sea capaz de seleccionar el número de threads en cada nivel en función de las características del sistema Tesis de Máster
5 Sistemas Empleados Arquitectura cc-numa con memoria compartida. Bertha: IBM 16 Xeon X7640 hexa-core con 96 cores. Dispone de 4 nodos, cada nodo 4 procesadores, cada procesador hexa-core. 191 GB de memoria compartida. Ben: HP Integrity Superdome con 128 cores. Cada computador consta de 4 Intel Itanium-2 dual core Montvale. 1,5 TB de memoria compartida. Pirineus: SGI Altix UV 1000 con procesadores Xeon X7542 hexa-core 1344 cores (uso limitado 256). 6 TB de memoria compartida.
6 Software Utilizado dgemm: rutina de multiplicación de matrices en doble precisión. OpenMP: entorno de programación paralela en sistemas de memoria compartida. icc (compilador de Intel). Versiones: Bertha: 11.0 Ben: 11.1 Pirineus: 11.1 MKL (BLAS implementada por Intel). Versiones: Bertha: 11.0 Ben: 10.2 Pirineus: 10.2
7 Planteamiento del Problema Multiplicar dos matrices cuadradas, A y B, usando paralelismo anidado (OpenMP + MKL) Se establece un número determinado de threads OpenMP y cada uno multiplica un bloque de filas adyacentes de la matriz A por la matriz B usando la rutina dgemm de MKL con un número de threads MKL establecido (estática/dinámicamente). La idea es analizar qué ocurre con el paralelismo anidado, no optimizar la multiplicación de matrices.
8 Planteamiento del Problema Esquema de paralelismo anidado empleado: omp_set_nested(1); omp_set_num_threads(nthomp); mkl_set_dynamic(0); mkl_set_num_threads(nthmkl); //Habilita paralelismo anidado //Establece threads OpenMP //Deshabilita paralelismo dinamico //Establece threads MKL #pragma omp parallel { obtener tamaño y posicion inicial de la submatriz A a ser multiplicada } llamar a la rutina dgemm para multiplicar esta submatriz por la matriz B
9 Interés del Problema Se puede pensar que la mejor opción es usar versiones paralelas de BLAS con determinación dinámica de threads sin usar paralelismo OpenMP o incluso usando un número de threads igual al de cores disponibles. Pero dependiendo del sistema computacional, del tamaño de las matrices y del número de threads utilizados, se pueden obtener tiempos menores de ejecución usando otras combinaciones. Tal y como se muestra a continuación, usando solo paralelismo MKL, es preferible usar un número de threads diferente al número de cores del sistema si se quiere obtener el menor tiempo de ejecución.
10 Interés del Problema
11 Estudio Experimental 2 niveles de paralelismo (OpenMP + MKL)
12 Estudio Experimental (sin selección dinámica de threads MKL) (speed-up mostrado con respecto al tiempo obtenido con paralelismo MKL)
13 Estudio Experimental 2 niveles de paralelismo (OpenMP + MKL)
14 Estudio Experimental (sin selección dinámica de threads MKL) (speed-up mostrado con respecto al tiempo obtenido con paralelismo MKL)
15 Estudio Experimental
16 Estudio Experimental 2 niveles de paralelismo (OpenMP + MKL) pirineus pirineus 4, , speed-up 3 2,5 2 1, speed-up ,
17 Estudio Experimental 30 pirineus speed-up pirineus speed-up
18 Estudio Experimental speed-up pirineus speed-up pirineus
19 Estudio Experimental (sin selección dinámica de threads MKL) (speed-up mostrado con respecto al tiempo obtenido con paralelismo MKL) 1,6 1,4 1,2 pirineus speed-up 1 0,8 0,6 0,4 0, #thr.omp - #thr.mkl
20 Conclusiones Sin paralelismo dinámico, conforme se aumenta el número de threads OpenMP y el tamaño de las matrices, se observa un incremento del speed-up. En sistemas grandes (muchos cores), suele ser preferible usar un número de threads OpenMP superior o semejante al de MKL. Ben, speed-up entre 1.2 y 1.8 con 16 threads OpenMP y 4 MKL. Bertha, speed-up entre 1.4 y 1.6 con 8 threads OpenMP y 8 MKL. Pirineus, speed-up entre 1 y 1.4 con 4 threads OpenMP y 15 MKL. El uso de dos niveles de paralelismo contribuye a acelerar la multiplicación de matrices especialmente en problemas de gran dimensión.
Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore
Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:
Más detallesHeterogénea y Jerárquica
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida
Más detallesOptimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore
UNIVERSIDAD DE MURCIA FACULTAD DE INFORMÁTICA Máster en Nuevas Tecnologías en Informática Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Tesis de Máster Itinerario de Arquitecturas
Más detallesHerramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela
Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática
Más detallesNociones básicas de computación paralela
Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad
Más detallesUna Biblioteca Numérica Paralela para UPC
1/32 Una Biblioteca Numérica Paralela para UPC Jorge González-Domínguez 1 *, María J. Martín 1, Guillermo L. Taboada 1, Juan Touriño 1, Ramón Doallo 1, Andrés Gómez 2 1 Grupo de Arquitectura de Computadores
Más detallesArquitecturas de Altas Prestaciones y Supercomputación
Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción
Más detallesComputación Híbrida, Heterogénea y Jerárquica
Computación Híbrida, Heterogénea y Jerárquica http://www.ditec.um.es/ javiercm/curso psba/ Curso de Programación en el Supercomputador Ben-Arabí, febrero-marzo 2012 Organización aproximada de la sesión,
Más detallesLusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Más detallesCÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida
Más detallesCOMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de
Más detallesGrupo de Computación Científica y Programación Paralela Universidad de Murcia
Grupo de Computación Científica y Programación Paralela Universidad de Murcia http://www.um.es/pcgum/ Presentación Líneas de Investigación, Máster en Informática, Universidad de Murcia, diciembre 2013
Más detallesBasic Linear Algebra Subprograms (BLAS) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006
Basic Linear Algebra Subprograms () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Índice Qué es la biblioteca? Organización de Funcionalidad
Más detallesGrupo de Computación Científica y Programación Paralela
Grupo de Computación Científica y Programación Paralela Universidad de Murcia domingo@um.es http://dis.um.es/~domingo Reunión de proyecto de investigación, Valencia, 12-13 noviembre 2009 Contents 1 El
Más detallesSolving Dense Linear Systems on Platforms with Multiple Hardware Accelerators
Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Maribel Castillo, Francisco D. Igual, Rafael Mayo, Gregorio Quintana-Ortí, Enrique S. Quintana-Ortí, Robert van de Geijn Grupo
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesMAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández
PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández gines.guerrero@ditec.um.es Grupo de Arquitecturas y Computación Paralela
Más detallesModelos de computadores paralelos
Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos
Más detallesComputación de Altas Prestaciones Sistemas computacionales
Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas
Más detallesParalelismo Relajado Paralelismo Síncrono
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Paralelismo Relajado Paralelismo Síncrono Domingo Giménez (Universidad de Murcia) 1
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesBalance Dinámico de Carga en Super-Cómputo
Balance Dinámico de Carga en Super-Cómputo Dr. Manuel Aguilar Cornejo Presentación elaborada por: Juan Santana Santana 1 Introducción Balance dinámico de carga Librería DLML Algoritmo utilizando una topología
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesEsquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia)
Más detallesTEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Más detallesElectromagnetismo y Supercomputación
Electromagnetismo y Supercomputación Luis Landesa, José Manuel Taboada Universidad de Extremadura, Computación de Elevadas Prestaciones Infraestructuras, casos de éxito y aplicaciones prácticas Badajoz/Cáceres
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para
Más detallesProgramación en Intel Xeon Phi
Programación en Intel Xeon Phi David Corbalán Navarro Máster en Nuevas Tecnologías de la Informática Índice Introducción al paralelismo Niveles de paralelismo Paradigmas de programación paralela Manycores
Más detallesAlgoritmos en Árbol y Grafo Computación Pipeline
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Algoritmos en Árbol y Grafo Computación Pipeline Domingo Giménez (Universidad
Más detallesCARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR
CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA
Más detallesParalelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas
Paralelismo MPI Paso de mensajes Francisco García Sánchez Departamento de Informática y Sistemas Contenido Introducción 1) Uso de MPI 2) Multiplicación de matrices 3) Ordenación por mezcla 4) Programación
Más detallesFactores de Rendimiento en Entornos Multicore
Factores de Rendimiento en Entornos Multicore César Allande Álvarez callande@caos.uab.es Computer Architecture & Operating Systems Department (CAOS) Barcelona, Spain Director: Eduardo César Galobardes
Más detallesComputación de Altas Prestaciones, una herramienta en ayuda de la ciencia
Computación de Altas Prestaciones, una herramienta en ayuda de la ciencia Domingo Giménez http://dis.um.es/~domingo Departamento de Informática y Sistemas Grupo de Computación Científica y Programación
Más detallesMultiplicación de matrices dispersas
Multiplicación de matrices dispersas Alumno: Irene Sánchez Linares Índice Descripción del problema Representación Algoritmo secuencial Esquemas algorítmicos Elección del esquema OpenMP MPI Estudio experimental
Más detallesPreparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018
Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Gilberto Díaz gilberto.diaz@uis.edu.co Universidad Industrial de Santander Centro de Súper Computación y Cálculo Científico
Más detallesAlgoritmos Matriciales por Bloques
Master en Nuevas Tecnologías en Informática Programación Paralela y Computación de Altas Prestaciones Algoritmos Matriciales por Bloques Javier Cuenca & Domingo Giménez Grupo de Investigación en Computación
Más detallesAlgoritmos Matriciales por Bloques
Master en Nuevas Tecnologías en Informática Programación Paralela y Computación de Altas Prestaciones Algoritmos Matriciales por Bloques Javier Cuenca & Domingo Giménez Grupo de Investigación en Computación
Más detallesEsquemas algorítmicos paralelos - Particionado y Paralelismo de Datos
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos - Particionado y Paralelismo de Datos Domingo Giménez (Universidad de Murcia) 1 / 31
Más detallesTEMA 2: PROGRAMACIÓN PARALELA (I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Más detallesLinear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006
Linear Algebra PACKage () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Estructura Qué es la biblioteca? Organización de Funcionalidad de Sistemas
Más detallesIncremento del reuso de datos de códigos dispersos en arquitecturas SMT
Incremento del reuso de datos de códigos dispersos en arquitecturas SMT J. C. Pichel, D. B. Heras, J. C. Cabaleiro y F. F. Rivera José Carlos Cabaleiro Domínguez Grupo de Arquitectura de Computadores Dpto.
Más detallesUNIVERSIDAD DE MURCIA
UNIVERSIDAD DE MURCIA DEPARTAMENTO DE INFORMÁTICA Y SISTEMAS TESIS DOCTORAL Técnicas de Modelado y Optimización del Tiempo de Ejecución de Rutinas Paralelas de Álgebra Lineal Luis Pedro García González
Más detallesCLUSTER FING: ARQUITECTURA Y APLICACIONES
CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster
Más detallesEntornos de programación paralela basados en modelos/paradigmas
Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original
Más detallesÁREA DE FORMACIÓN BÁSICA COMÚN OBLIGATORIA Horas Teoría. Matemáticas discretas CT Programación I CT
Áreas de Formación % Área de Formación Básica Común Obligatoria 126 38 Área de Formación Básica Particular Obligatoria 135 41 Área de Formación Especializante Obligatoria 36 11 Área de Formación Especializante
Más detallesCómputo Paralelo en Redes Locales de Computadoras
Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor
Más detallesTile64 Many-Core. vs. Intel Xeon Multi-Core
Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez
Más detallesTécnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs
Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Enrique S. Quintana-Ortí quintana@icc.uji.es High Performance Computing & Architectures
Más detallesProgramación Gráfica de Altas Prestaciones
rogramación Gráfica de Altas restaciones lataformas de altas prestaciones para Infomática Gráfica. Máster de Desarrollo de Software Depto. de Lenguajes y Sistemas Informáticos lsi.ugr.es/~jmantas/ga 1.
Más detallesFrancisco J. Hernández López
Francisco J. Hernández López fcoj23@cimat.mx Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Sistema de Cómputo Paralelo Hardware Parallel programming:
Más detallesParalelización de Programas Secuenciales: OpenMP
Paralelización de Programas Secuenciales: OpenMP http://www.openmp.org Manuel Arenaz arenaz@udc.es Índice Introducción a la programación paralela Programación con OpenMP Directivas de compilación Librería
Más detallesCLUSTER FING: ARQUITECTURA Y APLICACIONES
CLUSTER FING: ARQUITECTURA Y APLICACIONES Gerardo Ares, Pablo Ezzatti Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Conceptos
Más detallesDESARROLLO DE ALGORITMOS PARA MODELOS DE ECUACIONES SIMULTANEAS EN ALTAS PRESTACIONES. Jose Juan López Espín Universidad Miguel Hernández
DESARROLLO DE ALGORITMOS PARA MODELOS DE ECUACIONES SIMULTANEAS EN ALTAS PRESTACIONES Espín Universidad Miguel Hernández Introducción Motivación Los Modelos de Ecuaciones Simultáneas (M.E.S.) nacen como
Más detallesArquitectura de Computadoras. Clase 9 Procesamiento paralelo
Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.
Más detallesPlan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.
Plan 95 Adecuado ASIGNATURA: COMPUTACIÓN PARALELA CON PROCESADORES GRÁFICOS CODIGO: 95-0409 DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS /
Más detallesParalelización de problemas de recorrido de árboles Trabajadores replicados y esquema maestro esclavo
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Paralelización de problemas de recorrido de árboles Trabajadores replicados
Más detallesGRADO EN INGENIERIA INFORMATICA
EXAMENES PRIMER SEMESTRE GII 1 FUNDAMENTOS DEONT. Y JURIDICOS DE LAS TIC 1C viernes, 16 de enero de 2015 9:00 51-A1 GII 1 ALGEBRA LINEAL (PRACTICO) 1C martes, 20 de enero de 2015 16:00 Aula Inf. Dpto.
Más detallesComparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio.
Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio. Fabiana Leibovich, Silvana Gallo, Laura De Giusti, Franco Chichizola, Marcelo
Más detalles1 Primitivas básicas de OpenMP
1 Primitivas básicas de OpenMP Consultar la página oficial de la plataforma OpenMP http://www.openmp.org/drupal/ Pragmas Es una directiva para el compilador que permite la definición de nuevas directivas
Más detallesProgramación Paralela y Computación de Altas Prestaciones Algoritmos Matriciales por Bloques
Programación Paralela y Computación de Altas Prestaciones Algoritmos Matriciales por Bloques Javier Cuenca Dpto. de Ingeniería y Tecnología de Computadores Universidad de Murcia 1 Contenido Trabajo por
Más detallesAnálisis y Modificación de Código Heredado para Cómputo de Alto Rendimiento con Modelos Numéricos del Clima
Análisis y Modificación de Código Heredado para Cómputo de Alto Rendimiento con Modelos Numéricos del Clima Fernando G. Tinetti*, Pedro G. Cajaraville #, Juan C. Labraga ##, Mónica A. López ##, Diego Rodrigues
Más detallesEs una API (Aplication Program Interface) que se usa para paralelismo basado en hilos múltiples en entornos de memoria compartida
Algo de OPENMP Memoria Compartida Threads O hilos, se definen como flujos de instrucciones independientes, que se ejecutan separadamente del programa principal. Con estos hilos se aprovecha mucho una máquina
Más detallesDivide y Vencerás Programación Dinámica
Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Esquemas algorítmicos paralelos: Divide y Vencerás Programación Dinámica Domingo Giménez (Universidad de Murcia) 1 /
Más detallesAlgoritmos paralelos para la Multiplicación de Matrices
Introducción Paralelizar onclusiones Trabajo ibliografía lgoritmos paralelos para la Multiplicación de Matrices Universidad de Murcia - UM 18 de diciembre de 2008 Introducción Paralelizar onclusiones Trabajo
Más detallesIntroducción a la Programación de Memoria Compartida.. con OpenMP
Introducción a la Programación de Memoria Compartida.. con OpenMP Carlos Jaime BARRIOS HERNANDEZ, PhD. Escuela de Ingeniería de Sistemas e Informática Universidad Industrial de Santander Las herramientas
Más detallescuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar
cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo
Más detallesTécnicas de Modelado y Optimización del Tiempo de Ejecución de Rutinas Paralelas de Álgebra Lineal
Técnicas de Modelado y Optimización del Tiempo de Ejecución de Rutinas Paralelas de Álgebra Lineal Autor: Luis Pedro García González Directores: Javier Cuenca y Domingo Giménez Universidad de Murcia julio
Más detallesProgramación Paralela
Programación Paralela 4º Grado Ing. Informática Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Datos de la Asignatura PÁGINAS WEB: Web de material docente: http://lsi.ugr.es/~jmantas/ppr/
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detallesIntroducción a la Programación Paralela
Proyecto Universidad-Secundaria Incorporación de contenidos de programación paralela en la rama de tecnologías informáticas Facultad Informática, Universidad de Murcia e Instituto de Enseñanza Secundaria
Más detallesSistemas Complejos en Máquinas Paralelas
Sistemas Complejos en Máquinas Paralelas Clase 1: OpenMP Francisco García Eijó Departamento de Computación - FCEyN UBA 15 de Mayo del 2012 Memoria compartida Las mas conocidas son las máquinas tipo Symmetric
Más detallesCENTRO DE SUPERCOMPUTACIÓN
Uso del supercomputador Ben Arabí CENTRO DE SUPERCOMPUTACIÓN José Ginés Picón López Técnico de aplicaciones Murcia a 2 de Febrero de 2012 Uso del supercomputador Ben Arabí Descripción de la Arquitectura
Más detallesProgramación en Memoria Compartida: OpenMP
Programación en Memoria Compartida: OpenMP Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Nociones básicas Modelo de programación
Más detallesGrupo de Arquitectura de Computadores Departamento de Electrónica y Computación Universidad de Santiago de Compostela
Francisco Fernández Rivera Grupo de Arquitectura de Computadores Departamento de Electrónica y Computación Universidad de Santiago de Compostela Representando a los miembros de la red gallegos: CESGA,
Más detallesComputación Matricial y Paralela
Computación Matricial y Paralela Programación en Memoria Compartida Javier Cuenca Dpto. de Ingeniería y Tecnología de Computadores Domingo Giménez Dpto. de Informática y Sistemas Universidad de Murcia
Más detallesOptimización del framework de paralelización de tareas COMPSs
Optimización del framework de paralelización de tareas COMPSs Autor: Gabriel Reus Rodríguez Consultor: Ivan Rodero Enero 2015 Universitat Oberta de Catalunya Índice Introducción Qué es COMPSs? Objetivos
Más detalles15 de Octubre Crowne Plaza Ciudad de México. Simposio Técnico de Medición y Automatización. ni.com/mexico
15 de Octubre Crowne Plaza Ciudad de México Simposio Técnico de Medición y Automatización ni.com/mexico Arquitecturas de Programación para Sistemas Multinúcleo Financiero Embebido Médico Científico Industrial
Más detallesGrado en Ingeniería Informática
Grado en Ingeniería Informática Primer Curso Primer semestre ESCUELA SUPERIOR DE INGENIERÍA Chile, 1 11002-CÁDIZ Teléfono: 95 015100 Fax: 95 015101 Más información: www.uca.es/ingenieria Itinerario curricular
Más detallesHPC: Aplicaciones y Software
HPC: Aplicaciones y Software Heredado HPC: Aplicaciones y Software Fernando G. Tinetti III-LIDI, Fac. de Informática, UNLP Comisión de Inv. Científicas, Bs. As. fernando@info.unlp.edu.ar Aplicaciones y
Más detallesALGORITMOS DE RESOLUCIÓN DE MODELOS DE ECUACIONES SIMULTÁNEAS BASADOS EN LA DESCOMPOSICIÓN QR
UNIVERSIDAD POLITÉCNICA DE VALENCIA Departamento de Sistemas Informáticos y Computación ALGORITMOS DE RESOLUCIÓN DE MODELOS DE ECUACIONES SIMULTÁNEAS BASADOS EN LA DESCOMPOSICIÓN QR José Juan López Espín
Más detallesTema 3 GPUs: Introducción
Tema 3 GPUs: Introducción Alberto Ros Bardisa Tema 3 GPUs Alberto Ros Bardisa 1 / 15 Agenda 1 GPUs: Introducción 2 GP-GPU 3 Ejemplos comerciales 4 Conclusiones Tema 3 GPUs Alberto Ros Bardisa 2 / 15 Agenda
Más detalles2º curso / 2º cuatr. Arquitectura de Computadores. Grado en Ing. Informática. Seminario 0. Entorno de programación: atcgrid y gestor TORQUE
2º curso / 2º cuatr. 2º curso / 2º cuatr. Grado en Ing. Informática Arquitectura de Computadores Seminario 0. Entorno de programación: atcgrid y gestor TORQUE 2 Contenidos Cluster de prácticas (atcgrid)
Más detallesAnálisis de rendimiento de algoritmos paralelos
Análisis de rendimiento de algoritmos paralelos Joaquín Andrés López Molina josandlopmol@gmail.com Daniel Mauricio Rodríguez Alpizar danielmau231995@hotmail.com Estudiantes de Ingeniería en Computación
Más detallesArquitecturas GPU v. 2015
v. 2015 http://en.wikipedia.org/wiki/graphics_processing_unit http://en.wikipedia.org/wiki/stream_processing http://en.wikipedia.org/wiki/general-purpose_computing_on_graphics_processing_ units http://www.nvidia.com/object/what-is-gpu-computing.html
Más detallesCómputo paralelo con openmp y C
Cómputo paralelo con openmp y C Sergio Ivvan Valdez Peña Guanajuato, México. 13 de Marzo de 2012 Sergio Ivvan Valdez Peña Cómputo Guanajuato, paralelo conméxico. openmp y () C 13 de Marzo de 2012 1 / 27
Más detallesUso de Librerías de Álgebra Lineal en Multicore, GPU y MIC
Uso de Librerías de Álgebra Lineal en Multicore, GPU y MIC Programación Paralela y Computación de Altas Prestaciones Máster en Nuevas Tecnologías en Informática Universidad de Murcia Jesús Cámara Moreno
Más detallesGRADO EN INGENIERÍA DE COMPUTADORES
GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento
Más detallesRelación de Ejercicios. Programación Paralela 4º de Grado en Ingeniería Informática.
1. Por qué el modelo de programación que se sigue al programar con MPI es independiente de la asignación? 2. Describir gráficamente una solución eficiente para realizar una operación de reducción global
Más detallesCódigos de Química Computacional en el CESGA (Gaussian, GAMESS, NWCHEM)
Códigos de Química Computacional en el CESGA (Gaussian, GAMESS, NWCHEM) Aurelio Rodríguez, Técnico de Aplicaciones aurelio@cesga.es HARDWARE Componentes básicos Rendimiento de disco y memoria Uso de memoria
Más detallesComputación Matricial y Paralela
Computación Matricial y Paralela Programación híbrida Javier Cuenca Dpto. de Ingeniería y Tecnología de Computadores Domingo Giménez Dpto. de Informática y Sistemas Universidad de Murcia http://dis.um.es/~domingo
Más detallesIMPLEMENTACIÓN DE COMPUTACIÓN DE ALTO RENDIMIENTO Y PROGRAMACIÓN PARALELA EN CÓDIGOS COMPUTACIONALES CARLOS ANDRÉS ACOSTA BERLINGHIERI
IMPLEMENTACIÓN DE COMPUTACIÓN DE ALTO RENDIMIENTO Y PROGRAMACIÓN PARALELA EN CÓDIGOS COMPUTACIONALES CARLOS ANDRÉS ACOSTA BERLINGHIERI UNIVERSIDAD EAFIT ESCUELA DE INGENIERÍAS ÁREA DE DISEÑO MEDELLÍN 2009
Más detallesAdaptación: Julio J. Águila G. 1 Autores: Enriques Arias 2, Diego Cazorla 1
Adaptación: 1 Autores: Enriques Arias 2, Diego Cazorla 1 1 Departamento de Ingeniería en Computación-UMAG 2 Departamento de Sistemas Informáticos-UCLM martes 10 de marzo de 2015 (UMAG) martes 10 de marzo
Más detallesCálculo Estructural, Fluídos e Magnetismo Ansys 5.7
1 2 Temas SD SVG SC Cálculo Estructural, Fluídos e Magnetismo Ansys 5.7 X Cálculo Molecular Amber 8.0 X X X Gaussian 98 X X X Gaussian 03 X X X Dalton X X X CPMD X X X GAMESS X X X Molden X X NWCHEM X
Más detallesESCUELA PROFESIONAL DE FÍSICA
ESCUELA PROFESIONAL DE FÍSICA Nº CÓDIGO CURSO Sistema Prácticas Laboratorio Peso 1 CF002 TÓPICOS ESPECIALES II D 4 3 --- --- 1 --- --- 2 CF005 TÓPICOS ESPECIALES V G 6 5 --- --- 1 1 1 3 CF028 ELECTROMAGNETISMO
Más detallesAspectos avanzados de arquitectura de computadoras Multithreading. Facultad de Ingeniería - Universidad de la República Curso 2017
Aspectos avanzados de arquitectura de computadoras Multithreading Facultad de Ingeniería - Universidad de la República Curso 2017 Introducción En este capítulo se explorará la posibilidad de ejecutar múltiples
Más detallesOBANSoft: aplicación para el análisis bayesiano objetivo y subjetivo. Estudio de su optimización y paralelización
OBANSoft: aplicación para el análisis bayesiano objetivo y subjetivo. Estudio de su optimización y paralelización Manuel Quesada Martínez 12 de julio de 2010 Índice 1 Introducción 2 Estado del arte 3 Diseño
Más detalles