MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández
|
|
- Aurora Contreras Montes
- hace 7 años
- Vistas:
Transcripción
1 PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández Grupo de Arquitecturas y Computación Paralela Dpto. de Ingeniería y Tecnología de Computadores Facultad de Informática Universidad de Murcia 17 de diciembre de / 26
2 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 2 / 26
3 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 3 / 26
4 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Que es PLASMA? Parallel Linear Algebra for Scalable Multi-core Architectures. Obtener el máximo rendimiento de arquitecturas Multi-core. Está basada en LAPACK. Utiliza paralelismo de grano fino. El modelo de programación es asíncrono. Las tareas pueden terminar fuera de orden. El paralelismo, al contrario que en LAPACK, no queda oculto dentro de BLAS. El rendimiento va fuertemente ligado a la correcta asignación de los valores de los parámetros. El algoritmo está basado en bloques. Tamaño del bloque externo (granularidad y planificación). Tamaño del bloque interno. 4 / 26
5 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos 5 / 26
6 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos de PLASMA 2.3 Sistemas lineales y mínimos cuadrados Sistemas lineales de tipos de datos combinados Factorización tall y skinny Generación de la matriz Q Inversión explícita de una matriz BLAS 3 In-place layout translations Cobertura LU, Cholesky, QR & LQ LU, Cholesky, QR & LQ QR QR, LQ, tall y skinny QR Cholesky GEMM, HEMM, HER2K, HERK, SYMM, SYR2K, SYRK, TRMM, TRSM (todas) CM, RM, CCRB, CRRB, RCRB, RRRB (todas las combinaciones) Caracteristicas Trabaja con los tipos de datos: Z, C, D, S (y tipos combinados: ZC, DS) Planificación estática y dinámica con QUARK Disponible para Linux, MS Windows, Mac OS y AIX 6 / 26
7 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Objetivos Objetivos Alta utilización de cada core. Escalable a un número alto de cores. Metodología Planificación DAG. Paralelismo explicito. Comunicaciones implícitas. Granularidad fina / Basado en bloques. 7 / 26
8 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 8 / 26
9 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Tesla C1060 host CPU system memory GPU host interface Interconnection Netwrok Off-chip Memory GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 SM Shared Memory (16 KB) SP SP SP SP SP SP SP SP 9 / 26
10 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Modelo de Programación CUDA 10 / 26
11 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Nuevas Necesidades Derivadas del Uso de Many-cores Aumenta el paralelismo. Tesla C2050 (Fermi): 448 CUDA GHz. En simple precisión se alcanzan picos de 1030 GFlop/s, y en doble precisión 515 Gflop/s. Aumenta el coste de las comunicaciones en comparación con el coste de la computación. La velocidad del procesador aumenta un 59 %/año. El ancho de banda aumenta un 23 %/año. Heterogeneidad (Programación híbrida). Tareas pequeñas y no paralelizables en la CPU. Tareas grandes y paralelizables en la GPU. 11 / 26
12 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 12 / 26
13 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Que es MAGMA? I Matrix Algebra on GPU and Multicore Architectures. Permite realizar operaciones de algebra lineal basándose en LAPACK. Se adapta a sistemas híbridos: actualmente Multi-core junto GPUs. Se debe realizar una correcta planificación de las tareas en los Multi-core y la GPU. Los Multi-cores se encargan de tareas pequeñas y las GPUs de las tareas grandes. 13 / 26
14 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Que es MAGMA? II Explota la potencia que ofrece cada uno de los componentes híbridos. BLAS 2 se ejecuta en CPU usando LAPACK. BLAS 3 se ejecuta en GPU. Rápido, barato, mejor? Aprovecha las nuevas arquitecturas emergentes. Supera en rendimiento (en muchas ocasiones) a las soluciones homogéneas. 14 / 26
15 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi 15 / 26
16 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi de MAGMA 1.0 Sistemas lineales y mínimos cuadrados Sistemas lineales de tipos de datos combinados Problemas de autovalores y valores singulares Generación de la matriz Q MAGMA BLAS Cobertura LU, Cholesky, QR & LQ LU, Cholesky, QR & LQ Reducción a Hessenberg superior, bidiagonal, y formas tridiagonales QR, LQ, Hessenberg, bidiagonal, y formas tridiagonales Subconjunto de BLAS, crítico para obtener rendimiento en la Tesla y Fermi Caracteristicas Trabaja con los tipos de datos: Z, C, D, S (y tipos combinados: ZC, DS) Soporte para Multi-core y una GPU Interfaces CPU y GPU Disponible para Linux, Mac OS 16 / 26
17 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Adaptación a Fermi Fermi es la nueva generación de GPUs de NVIDIA. Fermi es más compleja que la anterior generación de GPUs. MAGMA está codificado en alto nivel, y todo sigue funcionando en Fermi. El auto-ajuste tiene mayor importancia. En la última versión de MAGMA se incluyen kernels rediseñados para Fermi (mayor tamaño de bloque, bloques de registros...). Parte del código ha sido escrita en ensamblador. 17 / 26
18 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 18 / 26
19 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Arquitecturas Utilizadas para las Pruebas Fermi Istanbul Tesla C2050: 448 CUDA cores a 1.15GHz. En SP se alcanzan picos de 1030 GFlop/s, y en doble precisión 515 Gflop/s. Coste $3,000. AMD 8 socket 6 core (48 cores) a 2.8GHz. En SP se alcanzan picos de 1075 GFlop/s, y en doble precisión 538 Gflop/s. Coste $30, / 26
20 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Factorización en DP en Fermi (2050) 20 / 26
21 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Factorización LU en DP en Distintas Librerías 21 / 26
22 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 22 / 26
23 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Trabajo Futuro en PLASMA Aceleración en GPUs y OpenCL (incluyendo múltiples GPUs). Soporte completo para la arquitectura Fermi de NVIDIA. Resolución de problemas de problemas de autovalores y valores singulares. 23 / 26
24 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Trabajo Futuro en MAGMA Integra MAGMA con librerías como: PLASMA: Mayor eficiencia en Multi-cores. StarPU: Soportar nodos heterogéneos con multigpus y Multi-cores. DAGuE: Soportar sistemas distribuidos de Many-cores. Auto-ajuste de la librería. Soporte de OpenCL. Más funcionalidades, incluyendo álgebra lineal de matrices dispersas. 24 / 26
25 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Bibliografía Agullo, E., Demmel, J., Dongarra, J., Hadri, B., Kurzak, J., Langou, J., Ltaief, H., Luszczek, P., Tomov S. Numerical linear algebra on emerging architectures: The PLASMA and MAGMA projects. Journal of Physics Conference Series, Vol. 180, Nath, R., Tomov, S., Dongarra, J. An Improved MAGMA GEMM for Fermi GPUs. International Journal of High Performance Computing Agullo E., Dongarra J., Hadri B., Kurzak J., Langou J., Ltaief H., Luszczek P., YarKhan A. PLASMA users guide Tomov S., Nath R., Du P., Dongarra J. MAGMA users guide / 26
26 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA PREGUNTAS? 26 / 26
Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación
Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en
Más detallesIntroducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez
Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) I Presentación: Instructor M. en C. Cristhian Alejandro Ávila-Sánchez CUDA (Compute Unified Device Architecture)
Más detallesPlan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.
Plan 95 Adecuado ASIGNATURA: COMPUTACIÓN PARALELA CON PROCESADORES GRÁFICOS CODIGO: 95-0409 DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS /
Más detallesLinear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006
Linear Algebra PACKage () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Estructura Qué es la biblioteca? Organización de Funcionalidad de Sistemas
Más detallesTema 3 GPUs: Introducción
Tema 3 GPUs: Introducción Alberto Ros Bardisa Tema 3 GPUs Alberto Ros Bardisa 1 / 15 Agenda 1 GPUs: Introducción 2 GP-GPU 3 Ejemplos comerciales 4 Conclusiones Tema 3 GPUs Alberto Ros Bardisa 2 / 15 Agenda
Más detallesFLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí
FLAG/C Una API para computación matricial sobre GPUs M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí High Performance Computing & Architectures Group Universitat Jaume I de Castellón
Más detallesNociones básicas de computación paralela
Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad
Más detallesArquitecturas de Altas Prestaciones y Supercomputación
Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción
Más detallesComputación de Propósito General en Unidades de Procesamiento Gráfico. Clase 7-ALN y GPUs GPGPU
Computación de Propósito General en Unidades de Procesamiento Gráfico () P. Ezzatti, M. Pedemontey E. Dufrechou Clase 7 ALN en GPUs 1 Contenido Conceptos básicos de ALN Problemas Tipo de datos y matrices
Más detallesHerramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela
Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática
Más detallesFrancisco Javier Hernández López
Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay
Más detallesCÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida
Más detallesMultiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados
Más detallesGrupo de Computación Científica y Programación Paralela Universidad de Murcia
Grupo de Computación Científica y Programación Paralela Universidad de Murcia http://www.um.es/pcgum/ Presentación Líneas de Investigación, Máster en Informática, Universidad de Murcia, diciembre 2013
Más detallesPROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:
PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de
Más detallesTécnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs
Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Enrique S. Quintana-Ortí quintana@icc.uji.es High Performance Computing & Architectures
Más detallesLa GPU. I. La tarjeta gráfica y su GPU. Indice de contenidos [36 diapositivas] El diagrama de bloques de la tarjeta gráfica
Indice de contenidos [36 diapositivas] 1. La tarjeta gráfica y su GPU [7]. Perfiles de usuario [5] 3. Generaciones y modelos comerciales [4] La GPU 1. Pascal [7]. Volta [6] 3. Resumen de modelos comerciales
Más detallesProgramación de GPUs con CUDA
Programación de GPUs con CUDA Alvaro Cuno 23/01/2010 1 Agenda GPUs Cuda Cuda + OpenGL 2 GPUs (Graphics Processing Units) 3 Supercomputadores Mapa de los 100 supercomputadores Sudamérica: posiciones 306
Más detallesOptimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore
Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:
Más detallesModelos de computadores paralelos
Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos
Más detallesFrancisco J. Hernández López
Francisco J. Hernández López fcoj23@cimat.mx 2 Procesadores flexibles de procesamiento general Se pueden resolver problemas de diversas áreas: Finanzas, Gráficos, Procesamiento de Imágenes y Video, Algebra
Más detallesLibrerías de Álgebra Lineal en sistema Multicore, GPUs y MIC
Librerías de Álgebra Lineal en sistema Multicore, GPUs y MIC Luis P. García González Servicio de Apoyo a la Investigación Tecnológica Universidad Politécnica de Cartagena UPCT Noviembre de 2013 Luis-Pedro
Más detallesTile64 Many-Core. vs. Intel Xeon Multi-Core
Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez
Más detallesFrancisco J. Hernández López
Francisco J. Hernández López fcoj23@cimat.mx Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Sistema de Cómputo Paralelo Hardware Parallel programming:
Más detallesRutinas y Librerías de Álgebra Lineal en Sistemas Many-Core (GPUs y MIC)
Rutinas y Librerías de Álgebra Lineal en Sistemas Many-Core (GPUs y MIC) Luis P. García González Unidad de Informática Universidad Politécnica de Cartagena UPCT Diciembre de 2014 Luis-Pedro García (UPCT)
Más detallesUtilización de CLAPACK Para Resolver Sistemas de Ecuaciones Lineales Mediante Paralelismo y Optimización de Memoria
Utilización de CLAPACK Para Resolver Sistemas de Ecuaciones Lineales Mediante Paralelismo y Optimización de Memoria Germán Harvey Alférez Salinas 1 y Edward Mauricio Alférez Salinas 2 1. Facultad de Ingeniería
Más detallesGPGPU ( GENERAL PURPOSE COMPUTING ON GRAPHICS PROCESSING UNITS)
26 GPGPU ( GENERAL PURPOSE COMPUTING ON GRAPHICS PROCESSING UNITS) Técnica GPGPU consiste en el uso de las GPU para resolver problemas computacionales de todo tipo aparte de los relacionados con el procesamiento
Más detallesArquitecturas GPU v. 2013
v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,
Más detallescuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar
cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo
Más detallesComputación de Altas Prestaciones Sistemas computacionales
Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas
Más detallesCómputo Paralelo en Redes Locales de Computadoras
Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor
Más detallesTendencias y Evaluación
Tendencias y Evaluación Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento de
Más detallesEntornos de programación paralela basados en modelos/paradigmas
Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original
Más detallesArquitecturas GPU v. 2015
v. 2015 http://en.wikipedia.org/wiki/graphics_processing_unit http://en.wikipedia.org/wiki/stream_processing http://en.wikipedia.org/wiki/general-purpose_computing_on_graphics_processing_ units http://www.nvidia.com/object/what-is-gpu-computing.html
Más detallesKepler. 1. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes (1571-1630)
Índice de contenidos [25 diapositivas] Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga 1. Presentación de la arquitectura [3] 2. Los cores y su organización [7]
Más detallesAlejandro Molina Zarca
Compute Unified Device Architecture (CUDA) Que es CUDA? Por qué CUDA? Dónde se usa CUDA? El Modelo CUDA Escalabilidad Modelo de programación Programación Heterogenea Memoria Compartida Alejandro Molina
Más detallesInside Kepler. I. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes ( )
Índice de contenidos [25 diapositivas] Inside Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga 1. Presentación de la arquitectura [3 diapositivas] 2. Los cores
Más detallesComputación de Propósito General en Unidades de Procesamiento Gráfico GPGPU
Computación de Propósito General en Unidades de Procesamiento Gráfico () E. Dufrechou, P. Ezzatti, M. Pedemonte y J.P.Silva Clase 8 ALN en GPUs Contenido Motivación Conceptos básicos de ALN Problemas Tipo
Más detallesSolving Dense Linear Systems on Platforms with Multiple Hardware Accelerators
Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Maribel Castillo, Francisco D. Igual, Rafael Mayo, Gregorio Quintana-Ortí, Enrique S. Quintana-Ortí, Robert van de Geijn Grupo
Más detallesTEMA 4 PROCESAMIENTO PARALELO
TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de
Más detallesGPU-Ejemplo CUDA. Carlos García Sánchez
Carlos García Sánchez 1 2 Contenidos Motivación GPU vs. CPU GPU vs. Vectoriales CUDA Sintaxis Ejemplo 2 3 Motivación Computación altas prestaciones: www.top500.org 1º: Titan (300mil AMD-Opteron + 19mil
Más detallesUnidad Zacatenco. Departamento de Computación. Implementación paralela y heterogénea de la transformación de Householder y sus aplicaciones.
Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional Unidad Zacatenco Departamento de Computación Implementación paralela y heterogénea de la transformación de Householder
Más detallesGuía Docente 2017/2018
Guía Docente 2017/2018 Programación paralela Parallel Programming Grado en Ingeniería Informática A distancia hola Universidad Católica San Antonio de Murcia Tlf: (+34) 968 278 160 info@ucam.edu www.ucam.edu
Más detallesTEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Más detallesOptimización de cómputo paralelo científico en un entorno híbrido Multicore - MultiGPU
WICC 2012 788 Optimización de cómputo paralelo científico en un entorno híbrido Multicore - MultiGPU Gustavo Wolfmann Lab. de Computación - FCEFyN - Univ. Nac. de Córdoba Av. Velez Sarsfield 1611, Córdoba,
Más detallesPROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT
PROGRAMA DE CURSO Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Unidades Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3 0 7 Requisitos Carácter
Más detallesProgramación Paralela
Programación Paralela 4º Grado Ing. Informática Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Datos de la Asignatura PÁGINAS WEB: Web de material docente: http://lsi.ugr.es/~jmantas/ppr/
Más detallesComputación de Propósito General en Unidades de Procesamiento Gráfico GPGPU
Computación de Propósito General en Unidades de Procesamiento Gráfico () R. Bayá, E. Dufrechou, P. Ezzattiy M. Pedemonte Clase 1 Introducción Contenido Un poco de historia El pipeline gráfico Tarjetas
Más detallesComputación en Manycores
Computación en Manycores Metodología de la Programación Paralela Contenidos 1 Sistemas 2 GPGPU 3 Intel Xeon Phi 4 Prácticas GPU: Graphic Processing Units Inicialmente para procesamiento de gráficos. También
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesHigh Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14
High Performance Computing y Big Data en AWS +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 212 1 / 14 High Performance Computing High Performance Computing (HPC) Afonta grandes problemas empresariales,
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesGRADO EN INGENIERÍA DE COMPUTADORES
GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento
Más detallesIngeniería de Computadores
Ingeniería de Computadores Grado en Informática Charlas informativas 8 de Mayo de 2014 Jesús González Peñalver Algo de motivación Lucas Fernando Alonso Le gusta mucho su coche Conoce perfectamente hasta
Más detallesINTRODUCCIÓN A LA PROGRAMACIÓN EN CUDA. Francisco Javier Hernández López
INTRODUCCIÓN A LA PROGRAMACIÓN EN CUDA Francisco Javier Hernández López http://www.cimat.mx/~fcoj23 Guanajuato, Gto. Noviembre de 2012 Introducción a la Programación en CUDA 2 Qué es el Cómputo Paralelo
Más detallesGuía docente de la asignatura
Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPLEMENTOS DE INGENIERÍA DE COMPUTADORES (vacío) GRADO EN INGENIERÍA INFORMÁTICA Plan 464 Código 45218 Periodo de impartición 1 er. CUATRIMESTRE
Más detallesCDI Arquitecturas que soportan la concurrencia. granularidad
granularidad Se suele distinguir concurrencia de grano fino es decir, se aprovecha de la ejecución de operaciones concurrentes a nivel del procesador (hardware) a grano grueso es decir, se aprovecha de
Más detallesCUDA (Compute Unified Device Architecture)
CUDA (Compute Unified Device Architecture) Alvaro Cuno 23/01/2010 1 CUDA Arquitectura de computación paralela de propósito general La programación para la arquitectura CUDA puede hacerse usando lenguaje
Más detallesGuía docente de la asignatura Computación Paralela
Guía docente de la asignatura Computación Paralela Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPUTACION TECNOLOGIAS ESPECIFICAS GRADO EN INGENIERÍA INFORMÁTICA Plan 545 Código 46929 Periodo
Más detallesPreparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018
Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Gilberto Díaz gilberto.diaz@uis.edu.co Universidad Industrial de Santander Centro de Súper Computación y Cálculo Científico
Más detallesReconstrucción Robusta de Imágenes Multiespectrales de Percepción Remota en GPUs
35 Remota en GPUs RAMÍREZ-ZAPATA, Rodrigo *, CASTILLO-ATOCHE, Alejandro, MORENO-SABIDO, Mario, BLANCO-VALDEZ, Magnolia. Recibido Julio 25, 2016; Aceptado Septiembre 12, 2016 Resumen En este artículo se
Más detallesCUDA: MODELO DE PROGRAMACIÓN
CUDA: MODELO DE PROGRAMACIÓN Autor: Andrés Rondán Tema: GPUGP: nvidia CUDA. Introducción En Noviembre de 2006, NVIDIA crea CUDA, una arquitectura de procesamiento paralelo de propósito general, con un
Más detallesComputación de Altas Prestaciones Sistemas computacionales
Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco
Más detallesEvaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica
Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica Nelson Rodríguez, Marìa Murazzo, Diego Medel, Maximiliano Fernández, Facundo González
Más detallesUnidad de Competencia I Elementos de Competencia Requerimientos de información
REQUISITOS: Arquitectura de computadoras HORAS: 45 CRÉDITOS: 11.25 PROGRAMA(S) EDUCATIVO(S) QUE LA RECIBE(N): Ingeniería de Software PLAN: 2009 FECHA DE REVISIÓN: Noviembre de 2009 PROGRAMA DE CURSO Modelo
Más detallesLa elección de la CPU. 1. Introducción. Indice de contenidos [23 diapositivas] El procesador central o CPU
Indice de contenidos [3 diapositivas] 1. Introducción [ diapositivas]. Modelos comerciales e innovaciones en Intel 1] 3. Modelos comerciales en AMD [3] 4. Comparativa Intel-AMD [3] 5. El mejor procesador
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo
Más detallesAsignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I.
PROGRAMA DE ESTUDIOS ÁLGEBRA LINEAL NUMÉRICA Área a la que pertenece: ÁREA DE FORMACION INTEGRAL PROFESIONAL Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0069 Asignaturas antecedentes y subsecuentes
Más detallesCOMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de
Más detallesGuía Docente 2018/2019
Guía Docente 2018/2019 Programación paralela Parallel Programming Grado en Ingeniería Informática A distancia Índice Programación Paralela... Error! Marcador no definido. Breve descripción de la asignatura...
Más detallesPROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Auxiliar. Personal
PROGRAMA DE CURSO Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT es Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3 0 7 Requisitos Carácter
Más detallesUso de Librerías de Álgebra Lineal en Multicore, GPU y MIC
Uso de Librerías de Álgebra Lineal en Multicore, GPU y MIC Programación Paralela y Computación de Altas Prestaciones Máster en Nuevas Tecnologías en Informática Universidad de Murcia Jesús Cámara Moreno
Más detallesAplicación de GP-GPU Computing para la optimización de algoritmos científicos mediante el uso de profiling de hardware.
Aplicación de GP-GPU Computing para la optimización de algoritmos científicos mediante el uso de profiling de hardware. Nicanor Casas, Graciela De Luca, Daniel Giulianelli, Federico Díaz, Waldo Valiente,
Más detallesTema 5 Jerarquía de Memoria
Tema 5 Jerarquía de Memoria Grupo ARCOS Estructura de Computadores Grado en Ingeniería Informática Universidad Carlos III de Madrid Contenidos 1. Tipos de memoria 2. Jerarquía de memoria 3. Memoria principal
Más detallesRECONOCIMIENTO DE OBJETOS PARA APOYO A PERSONAS INVIDENTES BASADO EN DEEP LEARNING
RECONOCIMIENTO DE OBJETOS PARA APOYO A PERSONAS INVIDENTES BASADO EN DEEP LEARNING Israel Rivera Zárate Instituto Politécnico Nacional-CIDETEC irivera@ipn.mx Miguel Hernández Bolaños Instituto Politécnico
Más detallesAMD Habla De Su Primera Arquitectura Completamente Nueva
AMD Habla De Su Primera Arquitectura Completamente Nueva Nuestro equipo editorial, ha llevado a cabo una excelente labor para informales todo lo último que ha "comentado" AMD durante el AMD Analyst Day
Más detalles1 o GII. Universidad de Murcia Facultad de Informática. Calendario de Exámenes 2018 Convocatoria de junio
1 o GII 1885 Estadística 22-5-2018 M 1886 Fundamentos lógicos de la informática 24-5-2018 T 1891 Algebra y matemática discreta 28-5-2018 M 1893 Estructura y tecnología de computadores 30-5-2018 T 1894
Más detallesMultikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones
Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones Jesús A. Díaz Sánchez Curso 2010/2011 Índice 1. Introducción 2 2. Multikernel 3 3.
Más detalles2. INSTALACIÓN DE LAS HERRAMIENTAS DE DESARROLLO CUDA
II. SOFTWARE CUDA 1. HERRAMIENTAS DE PROGRAMACIÓN CUDA: CUDA es esencialmente una herramienta de programación. Es decir permite a los desarrolladores escribir, compilar, depurar y ejecutar código adaptado
Más detallesArquitectura de Computadoras para Ingeniería
Arquitectura de Computadoras para Ingeniería (Cód. 7526) 1 Cuatrimestre 2016 Dra. DCIC - UNS 1 Multiprocesadores 2 Clasificación de Flynn Clasificación de 1966 En función del flujo de instrucciones y datos
Más detallesDiseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es
Más detallesGrupo de Computación Científica y Programación Paralela
Grupo de Computación Científica y Programación Paralela Universidad de Murcia domingo@um.es http://dis.um.es/~domingo Reunión de proyecto de investigación, Valencia, 12-13 noviembre 2009 Contents 1 El
Más detallesGuía docente de la asignatura
Guía docente de la asignatura Asignatura Materia Módulo RENDIMIENTO Y EVALUACIÓN DE COMPUTADORES INGENIERÍA DE COMPUTADORES COMPLEMENTOS DE FORMACIÓN Titulación GRADO EN INGENIERÍA INFORMÁTICA (545) Plan
Más detallesAnálisis y Diseño de Algoritmos (AyDA) Isabel Besembel Carrera
Análisis y Diseño de Algoritmos (AyDA) Isabel Besembel Carrera Algoritmos probabilistas Ene. 2010 Postgrado en Computación. Análisis y Diseño de Algoritmos (AyDA). Isabel Besembel. 2 Algoritmos multihilos
Más detallesCOM - Computadores
Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2017 GRADO EN CIENCIA E INGENIERÍA DE
Más detallesComputación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE
Computación de Alta Performance Curso 2009 Objetivos: Estimación de desempeño de algoritmos paralelos. Comparación con algoritmos seriales. Factores intuitivos para evaluar la performance: Tiempo de ejecución.
Más detallesIntel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
Más detallesTodo es cuestión de preferencias
? Todo es cuestión de preferencias Una de las tareas esenciales del sistema operativo es ocultar el hardware y presentar a los programas (y a los programadores) abstracciones agradables, elegantes, simples
Más detallesMétodos Numéricos MAT-251. Dr. Alonso Ramírez Manzanares CIMAT A.C. web:
Métodos Numéricos MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Salvador Botello Rionda CIMAT A.C. e-mail: botello@cimat.mx Objetivos del curso Analizar, deducir
Más detallesINTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS
INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS Sergio Orts Escolano sorts@dtic.ua.es Vicente Morell Giménez vmorell@dccia.ua.es Universidad de Alicante Departamento de tecnología informática y computación
Más detallesDepartamento de Arquitectura de computadores y electrónica Universidad de Almería. Tesis Doctoral
Departamento de Arquitectura de computadores y electrónica Universidad de Almería Tesis Doctoral Computación algebraica dispersa con procesadores grácos y su aplicación en tomografía electrónica Francisco
Más detallesMÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO BREVE DESCRIPCIÓN DE CONTENIDOS (SEGÚN MEMORIA DE VERIFICACIÓN DEL GRADO)
GUIA DOCENTE DE LA ASIGNATURA ARQUITECTURAS Y COMPUTACIÓN DE ALTAS PRESTACIONES Curso 2018 2019 (Fecha última actualización: 15/05/2018) (Fecha de aprobación en el Consejo de Departamento: 17/05/2018)
Más detallesFecha de elaboración: Agosto de Fecha de última actualización: Julio de 2010.
Programa elaborado por: PROGRAMA DE ESTUDIO Algebra Lineal Numérica Programa educativo: Licenciatura en Matemáticas Área de formación: Integral Profesional Horas teóricas: 3 Horas prácticas: 2 Total de
Más detallesPLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente
CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Programación Concurrente 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Facultad: Máster
Más detallesANÁLISIS DEL RENDIMIENTO DE PROCESADORES MULTINÚCLEO EMBEBIDOS EN DISPOSITIVOS DIGITALES AL EJECUTAR APLICACIONES PARALELAS
ANÁLISIS DEL RENDIMIENTO DE PROCESADORES MULTINÚCLEO EMBEBIDOS EN DISPOSITIVOS DIGITALES AL EJECUTAR APLICACIONES PARALELAS Jimmy Josué Peña Koo Instituto Tecnológico Superior del Sur del Estado de Yucatán
Más detallesUtilización y optimización de librerías numéricas paralelas
Utilización y optimización de librerías numéricas paralelas Seminario de doctorado, UPV 2007 Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia http://dis.um.es/~domingo 1 Motivación
Más detallesTaller de Programación Paralela
Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para
Más detalles