MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández

Tamaño: px
Comenzar la demostración a partir de la página:

Download "MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández"

Transcripción

1 PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández Grupo de Arquitecturas y Computación Paralela Dpto. de Ingeniería y Tecnología de Computadores Facultad de Informática Universidad de Murcia 17 de diciembre de / 26

2 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 2 / 26

3 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 3 / 26

4 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Que es PLASMA? Parallel Linear Algebra for Scalable Multi-core Architectures. Obtener el máximo rendimiento de arquitecturas Multi-core. Está basada en LAPACK. Utiliza paralelismo de grano fino. El modelo de programación es asíncrono. Las tareas pueden terminar fuera de orden. El paralelismo, al contrario que en LAPACK, no queda oculto dentro de BLAS. El rendimiento va fuertemente ligado a la correcta asignación de los valores de los parámetros. El algoritmo está basado en bloques. Tamaño del bloque externo (granularidad y planificación). Tamaño del bloque interno. 4 / 26

5 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos 5 / 26

6 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos de PLASMA 2.3 Sistemas lineales y mínimos cuadrados Sistemas lineales de tipos de datos combinados Factorización tall y skinny Generación de la matriz Q Inversión explícita de una matriz BLAS 3 In-place layout translations Cobertura LU, Cholesky, QR & LQ LU, Cholesky, QR & LQ QR QR, LQ, tall y skinny QR Cholesky GEMM, HEMM, HER2K, HERK, SYMM, SYR2K, SYRK, TRMM, TRSM (todas) CM, RM, CCRB, CRRB, RCRB, RRRB (todas las combinaciones) Caracteristicas Trabaja con los tipos de datos: Z, C, D, S (y tipos combinados: ZC, DS) Planificación estática y dinámica con QUARK Disponible para Linux, MS Windows, Mac OS y AIX 6 / 26

7 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es PLASMA? Objetivos Objetivos Objetivos Alta utilización de cada core. Escalable a un número alto de cores. Metodología Planificación DAG. Paralelismo explicito. Comunicaciones implícitas. Granularidad fina / Basado en bloques. 7 / 26

8 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 8 / 26

9 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Tesla C1060 host CPU system memory GPU host interface Interconnection Netwrok Off-chip Memory GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 GDDR3 SM Shared Memory (16 KB) SP SP SP SP SP SP SP SP 9 / 26

10 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Modelo de Programación CUDA 10 / 26

11 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitectura Modelo de Programación Cambios Nuevas Necesidades Derivadas del Uso de Many-cores Aumenta el paralelismo. Tesla C2050 (Fermi): 448 CUDA GHz. En simple precisión se alcanzan picos de 1030 GFlop/s, y en doble precisión 515 Gflop/s. Aumenta el coste de las comunicaciones en comparación con el coste de la computación. La velocidad del procesador aumenta un 59 %/año. El ancho de banda aumenta un 23 %/año. Heterogeneidad (Programación híbrida). Tareas pequeñas y no paralelizables en la CPU. Tareas grandes y paralelizables en la GPU. 11 / 26

12 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 12 / 26

13 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Que es MAGMA? I Matrix Algebra on GPU and Multicore Architectures. Permite realizar operaciones de algebra lineal basándose en LAPACK. Se adapta a sistemas híbridos: actualmente Multi-core junto GPUs. Se debe realizar una correcta planificación de las tareas en los Multi-core y la GPU. Los Multi-cores se encargan de tareas pequeñas y las GPUs de las tareas grandes. 13 / 26

14 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Que es MAGMA? II Explota la potencia que ofrece cada uno de los componentes híbridos. BLAS 2 se ejecuta en CPU usando LAPACK. BLAS 3 se ejecuta en GPU. Rápido, barato, mejor? Aprovecha las nuevas arquitecturas emergentes. Supera en rendimiento (en muchas ocasiones) a las soluciones homogéneas. 14 / 26

15 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi 15 / 26

16 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi de MAGMA 1.0 Sistemas lineales y mínimos cuadrados Sistemas lineales de tipos de datos combinados Problemas de autovalores y valores singulares Generación de la matriz Q MAGMA BLAS Cobertura LU, Cholesky, QR & LQ LU, Cholesky, QR & LQ Reducción a Hessenberg superior, bidiagonal, y formas tridiagonales QR, LQ, Hessenberg, bidiagonal, y formas tridiagonales Subconjunto de BLAS, crítico para obtener rendimiento en la Tesla y Fermi Caracteristicas Trabaja con los tipos de datos: Z, C, D, S (y tipos combinados: ZC, DS) Soporte para Multi-core y una GPU Interfaces CPU y GPU Disponible para Linux, Mac OS 16 / 26

17 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Que es MAGMA? Fermi Adaptación a Fermi Fermi es la nueva generación de GPUs de NVIDIA. Fermi es más compleja que la anterior generación de GPUs. MAGMA está codificado en alto nivel, y todo sigue funcionando en Fermi. El auto-ajuste tiene mayor importancia. En la última versión de MAGMA se incluyen kernels rediseñados para Fermi (mayor tamaño de bloque, bloques de registros...). Parte del código ha sido escrita en ensamblador. 17 / 26

18 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 18 / 26

19 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Arquitecturas Utilizadas para las Pruebas Fermi Istanbul Tesla C2050: 448 CUDA cores a 1.15GHz. En SP se alcanzan picos de 1030 GFlop/s, y en doble precisión 515 Gflop/s. Coste $3,000. AMD 8 socket 6 core (48 cores) a 2.8GHz. En SP se alcanzan picos de 1075 GFlop/s, y en doble precisión 538 Gflop/s. Coste $30, / 26

20 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Factorización en DP en Fermi (2050) 20 / 26

21 PLASMA GPU MAGMA Rendimiento Trabajo Futuro Arquitecturas Utilizadas Fermi Comparativa de Librerías Factorización LU en DP en Distintas Librerías 21 / 26

22 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Índice 1 PLASMA Que es PLASMA? Objetivos 2 GPU Arquitectura Modelo de Programación Cambios 3 MAGMA Que es MAGMA? Fermi 4 Rendimiento Arquitecturas Utilizadas Fermi Comparativa de Librerías 5 Trabajo Futuro PLASMA MAGMA 22 / 26

23 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Trabajo Futuro en PLASMA Aceleración en GPUs y OpenCL (incluyendo múltiples GPUs). Soporte completo para la arquitectura Fermi de NVIDIA. Resolución de problemas de problemas de autovalores y valores singulares. 23 / 26

24 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Trabajo Futuro en MAGMA Integra MAGMA con librerías como: PLASMA: Mayor eficiencia en Multi-cores. StarPU: Soportar nodos heterogéneos con multigpus y Multi-cores. DAGuE: Soportar sistemas distribuidos de Many-cores. Auto-ajuste de la librería. Soporte de OpenCL. Más funcionalidades, incluyendo álgebra lineal de matrices dispersas. 24 / 26

25 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA Bibliografía Agullo, E., Demmel, J., Dongarra, J., Hadri, B., Kurzak, J., Langou, J., Ltaief, H., Luszczek, P., Tomov S. Numerical linear algebra on emerging architectures: The PLASMA and MAGMA projects. Journal of Physics Conference Series, Vol. 180, Nath, R., Tomov, S., Dongarra, J. An Improved MAGMA GEMM for Fermi GPUs. International Journal of High Performance Computing Agullo E., Dongarra J., Hadri B., Kurzak J., Langou J., Ltaief H., Luszczek P., YarKhan A. PLASMA users guide Tomov S., Nath R., Du P., Dongarra J. MAGMA users guide / 26

26 PLASMA GPU MAGMA Rendimiento Trabajo Futuro PLASMA MAGMA PREGUNTAS? 26 / 26

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en

Más detalles

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) I Presentación: Instructor M. en C. Cristhian Alejandro Ávila-Sánchez CUDA (Compute Unified Device Architecture)

Más detalles

Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.

Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS. Plan 95 Adecuado ASIGNATURA: COMPUTACIÓN PARALELA CON PROCESADORES GRÁFICOS CODIGO: 95-0409 DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS /

Más detalles

Linear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006

Linear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Linear Algebra PACKage () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Estructura Qué es la biblioteca? Organización de Funcionalidad de Sistemas

Más detalles

Tema 3 GPUs: Introducción

Tema 3 GPUs: Introducción Tema 3 GPUs: Introducción Alberto Ros Bardisa Tema 3 GPUs Alberto Ros Bardisa 1 / 15 Agenda 1 GPUs: Introducción 2 GP-GPU 3 Ejemplos comerciales 4 Conclusiones Tema 3 GPUs Alberto Ros Bardisa 2 / 15 Agenda

Más detalles

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí FLAG/C Una API para computación matricial sobre GPUs M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí High Performance Computing & Architectures Group Universitat Jaume I de Castellón

Más detalles

Nociones básicas de computación paralela

Nociones básicas de computación paralela Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad

Más detalles

Arquitecturas de Altas Prestaciones y Supercomputación

Arquitecturas de Altas Prestaciones y Supercomputación Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico. Clase 7-ALN y GPUs GPGPU

Computación de Propósito General en Unidades de Procesamiento Gráfico. Clase 7-ALN y GPUs GPGPU Computación de Propósito General en Unidades de Procesamiento Gráfico () P. Ezzatti, M. Pedemontey E. Dufrechou Clase 7 ALN en GPUs 1 Contenido Conceptos básicos de ALN Problemas Tipo de datos y matrices

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

Francisco Javier Hernández López

Francisco Javier Hernández López Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay

Más detalles

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida

Más detalles

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados

Más detalles

Grupo de Computación Científica y Programación Paralela Universidad de Murcia

Grupo de Computación Científica y Programación Paralela Universidad de Murcia Grupo de Computación Científica y Programación Paralela Universidad de Murcia http://www.um.es/pcgum/ Presentación Líneas de Investigación, Máster en Informática, Universidad de Murcia, diciembre 2013

Más detalles

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización: PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de

Más detalles

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Enrique S. Quintana-Ortí quintana@icc.uji.es High Performance Computing & Architectures

Más detalles

La GPU. I. La tarjeta gráfica y su GPU. Indice de contenidos [36 diapositivas] El diagrama de bloques de la tarjeta gráfica

La GPU. I. La tarjeta gráfica y su GPU. Indice de contenidos [36 diapositivas] El diagrama de bloques de la tarjeta gráfica Indice de contenidos [36 diapositivas] 1. La tarjeta gráfica y su GPU [7]. Perfiles de usuario [5] 3. Generaciones y modelos comerciales [4] La GPU 1. Pascal [7]. Volta [6] 3. Resumen de modelos comerciales

Más detalles

Programación de GPUs con CUDA

Programación de GPUs con CUDA Programación de GPUs con CUDA Alvaro Cuno 23/01/2010 1 Agenda GPUs Cuda Cuda + OpenGL 2 GPUs (Graphics Processing Units) 3 Supercomputadores Mapa de los 100 supercomputadores Sudamérica: posiciones 306

Más detalles

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

Francisco J. Hernández López

Francisco J. Hernández López Francisco J. Hernández López fcoj23@cimat.mx 2 Procesadores flexibles de procesamiento general Se pueden resolver problemas de diversas áreas: Finanzas, Gráficos, Procesamiento de Imágenes y Video, Algebra

Más detalles

Librerías de Álgebra Lineal en sistema Multicore, GPUs y MIC

Librerías de Álgebra Lineal en sistema Multicore, GPUs y MIC Librerías de Álgebra Lineal en sistema Multicore, GPUs y MIC Luis P. García González Servicio de Apoyo a la Investigación Tecnológica Universidad Politécnica de Cartagena UPCT Noviembre de 2013 Luis-Pedro

Más detalles

Tile64 Many-Core. vs. Intel Xeon Multi-Core

Tile64 Many-Core. vs. Intel Xeon Multi-Core Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez

Más detalles

Francisco J. Hernández López

Francisco J. Hernández López Francisco J. Hernández López fcoj23@cimat.mx Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Sistema de Cómputo Paralelo Hardware Parallel programming:

Más detalles

Rutinas y Librerías de Álgebra Lineal en Sistemas Many-Core (GPUs y MIC)

Rutinas y Librerías de Álgebra Lineal en Sistemas Many-Core (GPUs y MIC) Rutinas y Librerías de Álgebra Lineal en Sistemas Many-Core (GPUs y MIC) Luis P. García González Unidad de Informática Universidad Politécnica de Cartagena UPCT Diciembre de 2014 Luis-Pedro García (UPCT)

Más detalles

Utilización de CLAPACK Para Resolver Sistemas de Ecuaciones Lineales Mediante Paralelismo y Optimización de Memoria

Utilización de CLAPACK Para Resolver Sistemas de Ecuaciones Lineales Mediante Paralelismo y Optimización de Memoria Utilización de CLAPACK Para Resolver Sistemas de Ecuaciones Lineales Mediante Paralelismo y Optimización de Memoria Germán Harvey Alférez Salinas 1 y Edward Mauricio Alférez Salinas 2 1. Facultad de Ingeniería

Más detalles

GPGPU ( GENERAL PURPOSE COMPUTING ON GRAPHICS PROCESSING UNITS)

GPGPU ( GENERAL PURPOSE COMPUTING ON GRAPHICS PROCESSING UNITS) 26 GPGPU ( GENERAL PURPOSE COMPUTING ON GRAPHICS PROCESSING UNITS) Técnica GPGPU consiste en el uso de las GPU para resolver problemas computacionales de todo tipo aparte de los relacionados con el procesamiento

Más detalles

Arquitecturas GPU v. 2013

Arquitecturas GPU v. 2013 v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,

Más detalles

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo

Más detalles

Computación de Altas Prestaciones Sistemas computacionales

Computación de Altas Prestaciones Sistemas computacionales Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

Tendencias y Evaluación

Tendencias y Evaluación Tendencias y Evaluación Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento de

Más detalles

Entornos de programación paralela basados en modelos/paradigmas

Entornos de programación paralela basados en modelos/paradigmas Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original

Más detalles

Arquitecturas GPU v. 2015

Arquitecturas GPU v. 2015 v. 2015 http://en.wikipedia.org/wiki/graphics_processing_unit http://en.wikipedia.org/wiki/stream_processing http://en.wikipedia.org/wiki/general-purpose_computing_on_graphics_processing_ units http://www.nvidia.com/object/what-is-gpu-computing.html

Más detalles

Kepler. 1. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes (1571-1630)

Kepler. 1. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes (1571-1630) Índice de contenidos [25 diapositivas] Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga 1. Presentación de la arquitectura [3] 2. Los cores y su organización [7]

Más detalles

Alejandro Molina Zarca

Alejandro Molina Zarca Compute Unified Device Architecture (CUDA) Que es CUDA? Por qué CUDA? Dónde se usa CUDA? El Modelo CUDA Escalabilidad Modelo de programación Programación Heterogenea Memoria Compartida Alejandro Molina

Más detalles

Inside Kepler. I. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes ( )

Inside Kepler. I. Presentación de la arquitectura. Índice de contenidos [25 diapositivas] Kepler, Johannes ( ) Índice de contenidos [25 diapositivas] Inside Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga 1. Presentación de la arquitectura [3 diapositivas] 2. Los cores

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU Computación de Propósito General en Unidades de Procesamiento Gráfico () E. Dufrechou, P. Ezzatti, M. Pedemonte y J.P.Silva Clase 8 ALN en GPUs Contenido Motivación Conceptos básicos de ALN Problemas Tipo

Más detalles

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Maribel Castillo, Francisco D. Igual, Rafael Mayo, Gregorio Quintana-Ortí, Enrique S. Quintana-Ortí, Robert van de Geijn Grupo

Más detalles

TEMA 4 PROCESAMIENTO PARALELO

TEMA 4 PROCESAMIENTO PARALELO TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de

Más detalles

GPU-Ejemplo CUDA. Carlos García Sánchez

GPU-Ejemplo CUDA. Carlos García Sánchez Carlos García Sánchez 1 2 Contenidos Motivación GPU vs. CPU GPU vs. Vectoriales CUDA Sintaxis Ejemplo 2 3 Motivación Computación altas prestaciones: www.top500.org 1º: Titan (300mil AMD-Opteron + 19mil

Más detalles

Unidad Zacatenco. Departamento de Computación. Implementación paralela y heterogénea de la transformación de Householder y sus aplicaciones.

Unidad Zacatenco. Departamento de Computación. Implementación paralela y heterogénea de la transformación de Householder y sus aplicaciones. Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional Unidad Zacatenco Departamento de Computación Implementación paralela y heterogénea de la transformación de Householder

Más detalles

Guía Docente 2017/2018

Guía Docente 2017/2018 Guía Docente 2017/2018 Programación paralela Parallel Programming Grado en Ingeniería Informática A distancia hola Universidad Católica San Antonio de Murcia Tlf: (+34) 968 278 160 info@ucam.edu www.ucam.edu

Más detalles

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

Optimización de cómputo paralelo científico en un entorno híbrido Multicore - MultiGPU

Optimización de cómputo paralelo científico en un entorno híbrido Multicore - MultiGPU WICC 2012 788 Optimización de cómputo paralelo científico en un entorno híbrido Multicore - MultiGPU Gustavo Wolfmann Lab. de Computación - FCEFyN - Univ. Nac. de Córdoba Av. Velez Sarsfield 1611, Córdoba,

Más detalles

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT PROGRAMA DE CURSO Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Unidades Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3 0 7 Requisitos Carácter

Más detalles

Programación Paralela

Programación Paralela Programación Paralela 4º Grado Ing. Informática Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Datos de la Asignatura PÁGINAS WEB: Web de material docente: http://lsi.ugr.es/~jmantas/ppr/

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU Computación de Propósito General en Unidades de Procesamiento Gráfico () R. Bayá, E. Dufrechou, P. Ezzattiy M. Pedemonte Clase 1 Introducción Contenido Un poco de historia El pipeline gráfico Tarjetas

Más detalles

Computación en Manycores

Computación en Manycores Computación en Manycores Metodología de la Programación Paralela Contenidos 1 Sistemas 2 GPGPU 3 Intel Xeon Phi 4 Prácticas GPU: Graphic Processing Units Inicialmente para procesamiento de gráficos. También

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14

High Performance Computing y Big Data en AWS. +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 2012 1 / 14 High Performance Computing y Big Data en AWS +info: (http://gac.udc.es) HPC y Big Data en AWS 16 Abril, 212 1 / 14 High Performance Computing High Performance Computing (HPC) Afonta grandes problemas empresariales,

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

GRADO EN INGENIERÍA DE COMPUTADORES

GRADO EN INGENIERÍA DE COMPUTADORES GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento

Más detalles

Ingeniería de Computadores

Ingeniería de Computadores Ingeniería de Computadores Grado en Informática Charlas informativas 8 de Mayo de 2014 Jesús González Peñalver Algo de motivación Lucas Fernando Alonso Le gusta mucho su coche Conoce perfectamente hasta

Más detalles

INTRODUCCIÓN A LA PROGRAMACIÓN EN CUDA. Francisco Javier Hernández López

INTRODUCCIÓN A LA PROGRAMACIÓN EN CUDA. Francisco Javier Hernández López INTRODUCCIÓN A LA PROGRAMACIÓN EN CUDA Francisco Javier Hernández López http://www.cimat.mx/~fcoj23 Guanajuato, Gto. Noviembre de 2012 Introducción a la Programación en CUDA 2 Qué es el Cómputo Paralelo

Más detalles

Guía docente de la asignatura

Guía docente de la asignatura Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPLEMENTOS DE INGENIERÍA DE COMPUTADORES (vacío) GRADO EN INGENIERÍA INFORMÁTICA Plan 464 Código 45218 Periodo de impartición 1 er. CUATRIMESTRE

Más detalles

CDI Arquitecturas que soportan la concurrencia. granularidad

CDI Arquitecturas que soportan la concurrencia. granularidad granularidad Se suele distinguir concurrencia de grano fino es decir, se aprovecha de la ejecución de operaciones concurrentes a nivel del procesador (hardware) a grano grueso es decir, se aprovecha de

Más detalles

CUDA (Compute Unified Device Architecture)

CUDA (Compute Unified Device Architecture) CUDA (Compute Unified Device Architecture) Alvaro Cuno 23/01/2010 1 CUDA Arquitectura de computación paralela de propósito general La programación para la arquitectura CUDA puede hacerse usando lenguaje

Más detalles

Guía docente de la asignatura Computación Paralela

Guía docente de la asignatura Computación Paralela Guía docente de la asignatura Computación Paralela Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPUTACION TECNOLOGIAS ESPECIFICAS GRADO EN INGENIERÍA INFORMÁTICA Plan 545 Código 46929 Periodo

Más detalles

Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018

Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Preparación y Adaptación de Códigos Científicos para su Ejecución Paralela TICAL 2018 Gilberto Díaz gilberto.diaz@uis.edu.co Universidad Industrial de Santander Centro de Súper Computación y Cálculo Científico

Más detalles

Reconstrucción Robusta de Imágenes Multiespectrales de Percepción Remota en GPUs

Reconstrucción Robusta de Imágenes Multiespectrales de Percepción Remota en GPUs 35 Remota en GPUs RAMÍREZ-ZAPATA, Rodrigo *, CASTILLO-ATOCHE, Alejandro, MORENO-SABIDO, Mario, BLANCO-VALDEZ, Magnolia. Recibido Julio 25, 2016; Aceptado Septiembre 12, 2016 Resumen En este artículo se

Más detalles

CUDA: MODELO DE PROGRAMACIÓN

CUDA: MODELO DE PROGRAMACIÓN CUDA: MODELO DE PROGRAMACIÓN Autor: Andrés Rondán Tema: GPUGP: nvidia CUDA. Introducción En Noviembre de 2006, NVIDIA crea CUDA, una arquitectura de procesamiento paralelo de propósito general, con un

Más detalles

Computación de Altas Prestaciones Sistemas computacionales

Computación de Altas Prestaciones Sistemas computacionales Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco

Más detalles

Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica

Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica Nelson Rodríguez, Marìa Murazzo, Diego Medel, Maximiliano Fernández, Facundo González

Más detalles

Unidad de Competencia I Elementos de Competencia Requerimientos de información

Unidad de Competencia I Elementos de Competencia Requerimientos de información REQUISITOS: Arquitectura de computadoras HORAS: 45 CRÉDITOS: 11.25 PROGRAMA(S) EDUCATIVO(S) QUE LA RECIBE(N): Ingeniería de Software PLAN: 2009 FECHA DE REVISIÓN: Noviembre de 2009 PROGRAMA DE CURSO Modelo

Más detalles

La elección de la CPU. 1. Introducción. Indice de contenidos [23 diapositivas] El procesador central o CPU

La elección de la CPU. 1. Introducción. Indice de contenidos [23 diapositivas] El procesador central o CPU Indice de contenidos [3 diapositivas] 1. Introducción [ diapositivas]. Modelos comerciales e innovaciones en Intel 1] 3. Modelos comerciales en AMD [3] 4. Comparativa Intel-AMD [3] 5. El mejor procesador

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo

Más detalles

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I.

Asignaturas antecedentes y subsecuentes Álgebra Lineal I y Análisis Numérico I. PROGRAMA DE ESTUDIOS ÁLGEBRA LINEAL NUMÉRICA Área a la que pertenece: ÁREA DE FORMACION INTEGRAL PROFESIONAL Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0069 Asignaturas antecedentes y subsecuentes

Más detalles

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de

Más detalles

Guía Docente 2018/2019

Guía Docente 2018/2019 Guía Docente 2018/2019 Programación paralela Parallel Programming Grado en Ingeniería Informática A distancia Índice Programación Paralela... Error! Marcador no definido. Breve descripción de la asignatura...

Más detalles

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Auxiliar. Personal

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Auxiliar. Personal PROGRAMA DE CURSO Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT es Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3 0 7 Requisitos Carácter

Más detalles

Uso de Librerías de Álgebra Lineal en Multicore, GPU y MIC

Uso de Librerías de Álgebra Lineal en Multicore, GPU y MIC Uso de Librerías de Álgebra Lineal en Multicore, GPU y MIC Programación Paralela y Computación de Altas Prestaciones Máster en Nuevas Tecnologías en Informática Universidad de Murcia Jesús Cámara Moreno

Más detalles

Aplicación de GP-GPU Computing para la optimización de algoritmos científicos mediante el uso de profiling de hardware.

Aplicación de GP-GPU Computing para la optimización de algoritmos científicos mediante el uso de profiling de hardware. Aplicación de GP-GPU Computing para la optimización de algoritmos científicos mediante el uso de profiling de hardware. Nicanor Casas, Graciela De Luca, Daniel Giulianelli, Federico Díaz, Waldo Valiente,

Más detalles

Tema 5 Jerarquía de Memoria

Tema 5 Jerarquía de Memoria Tema 5 Jerarquía de Memoria Grupo ARCOS Estructura de Computadores Grado en Ingeniería Informática Universidad Carlos III de Madrid Contenidos 1. Tipos de memoria 2. Jerarquía de memoria 3. Memoria principal

Más detalles

RECONOCIMIENTO DE OBJETOS PARA APOYO A PERSONAS INVIDENTES BASADO EN DEEP LEARNING

RECONOCIMIENTO DE OBJETOS PARA APOYO A PERSONAS INVIDENTES BASADO EN DEEP LEARNING RECONOCIMIENTO DE OBJETOS PARA APOYO A PERSONAS INVIDENTES BASADO EN DEEP LEARNING Israel Rivera Zárate Instituto Politécnico Nacional-CIDETEC irivera@ipn.mx Miguel Hernández Bolaños Instituto Politécnico

Más detalles

AMD Habla De Su Primera Arquitectura Completamente Nueva

AMD Habla De Su Primera Arquitectura Completamente Nueva AMD Habla De Su Primera Arquitectura Completamente Nueva Nuestro equipo editorial, ha llevado a cabo una excelente labor para informales todo lo último que ha "comentado" AMD durante el AMD Analyst Day

Más detalles

1 o GII. Universidad de Murcia Facultad de Informática. Calendario de Exámenes 2018 Convocatoria de junio

1 o GII. Universidad de Murcia Facultad de Informática. Calendario de Exámenes 2018 Convocatoria de junio 1 o GII 1885 Estadística 22-5-2018 M 1886 Fundamentos lógicos de la informática 24-5-2018 T 1891 Algebra y matemática discreta 28-5-2018 M 1893 Estructura y tecnología de computadores 30-5-2018 T 1894

Más detalles

Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones

Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones Multikernel Arquitectura de Sistema Operativo para sistemas con múltiples núcleos Microprocesadores para Comunicaciones Jesús A. Díaz Sánchez Curso 2010/2011 Índice 1. Introducción 2 2. Multikernel 3 3.

Más detalles

2. INSTALACIÓN DE LAS HERRAMIENTAS DE DESARROLLO CUDA

2. INSTALACIÓN DE LAS HERRAMIENTAS DE DESARROLLO CUDA II. SOFTWARE CUDA 1. HERRAMIENTAS DE PROGRAMACIÓN CUDA: CUDA es esencialmente una herramienta de programación. Es decir permite a los desarrolladores escribir, compilar, depurar y ejecutar código adaptado

Más detalles

Arquitectura de Computadoras para Ingeniería

Arquitectura de Computadoras para Ingeniería Arquitectura de Computadoras para Ingeniería (Cód. 7526) 1 Cuatrimestre 2016 Dra. DCIC - UNS 1 Multiprocesadores 2 Clasificación de Flynn Clasificación de 1966 En función del flujo de instrucciones y datos

Más detalles

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es

Más detalles

Grupo de Computación Científica y Programación Paralela

Grupo de Computación Científica y Programación Paralela Grupo de Computación Científica y Programación Paralela Universidad de Murcia domingo@um.es http://dis.um.es/~domingo Reunión de proyecto de investigación, Valencia, 12-13 noviembre 2009 Contents 1 El

Más detalles

Guía docente de la asignatura

Guía docente de la asignatura Guía docente de la asignatura Asignatura Materia Módulo RENDIMIENTO Y EVALUACIÓN DE COMPUTADORES INGENIERÍA DE COMPUTADORES COMPLEMENTOS DE FORMACIÓN Titulación GRADO EN INGENIERÍA INFORMÁTICA (545) Plan

Más detalles

Análisis y Diseño de Algoritmos (AyDA) Isabel Besembel Carrera

Análisis y Diseño de Algoritmos (AyDA) Isabel Besembel Carrera Análisis y Diseño de Algoritmos (AyDA) Isabel Besembel Carrera Algoritmos probabilistas Ene. 2010 Postgrado en Computación. Análisis y Diseño de Algoritmos (AyDA). Isabel Besembel. 2 Algoritmos multihilos

Más detalles

COM - Computadores

COM - Computadores Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2017 GRADO EN CIENCIA E INGENIERÍA DE

Más detalles

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE Computación de Alta Performance Curso 2009 Objetivos: Estimación de desempeño de algoritmos paralelos. Comparación con algoritmos seriales. Factores intuitivos para evaluar la performance: Tiempo de ejecución.

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

Todo es cuestión de preferencias

Todo es cuestión de preferencias ? Todo es cuestión de preferencias Una de las tareas esenciales del sistema operativo es ocultar el hardware y presentar a los programas (y a los programadores) abstracciones agradables, elegantes, simples

Más detalles

Métodos Numéricos MAT-251. Dr. Alonso Ramírez Manzanares CIMAT A.C. web:

Métodos Numéricos MAT-251. Dr. Alonso Ramírez Manzanares CIMAT A.C.   web: Métodos Numéricos MAT-251 Dr. CIMAT A.C. e-mail: alram@cimat.mx web: http://www.cimat.mx/~alram/met_num/ Dr. Salvador Botello Rionda CIMAT A.C. e-mail: botello@cimat.mx Objetivos del curso Analizar, deducir

Más detalles

INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS

INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS Sergio Orts Escolano sorts@dtic.ua.es Vicente Morell Giménez vmorell@dccia.ua.es Universidad de Alicante Departamento de tecnología informática y computación

Más detalles

Departamento de Arquitectura de computadores y electrónica Universidad de Almería. Tesis Doctoral

Departamento de Arquitectura de computadores y electrónica Universidad de Almería. Tesis Doctoral Departamento de Arquitectura de computadores y electrónica Universidad de Almería Tesis Doctoral Computación algebraica dispersa con procesadores grácos y su aplicación en tomografía electrónica Francisco

Más detalles

MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO BREVE DESCRIPCIÓN DE CONTENIDOS (SEGÚN MEMORIA DE VERIFICACIÓN DEL GRADO)

MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO BREVE DESCRIPCIÓN DE CONTENIDOS (SEGÚN MEMORIA DE VERIFICACIÓN DEL GRADO) GUIA DOCENTE DE LA ASIGNATURA ARQUITECTURAS Y COMPUTACIÓN DE ALTAS PRESTACIONES Curso 2018 2019 (Fecha última actualización: 15/05/2018) (Fecha de aprobación en el Consejo de Departamento: 17/05/2018)

Más detalles

Fecha de elaboración: Agosto de Fecha de última actualización: Julio de 2010.

Fecha de elaboración: Agosto de Fecha de última actualización: Julio de 2010. Programa elaborado por: PROGRAMA DE ESTUDIO Algebra Lineal Numérica Programa educativo: Licenciatura en Matemáticas Área de formación: Integral Profesional Horas teóricas: 3 Horas prácticas: 2 Total de

Más detalles

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Programación Concurrente 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Facultad: Máster

Más detalles

ANÁLISIS DEL RENDIMIENTO DE PROCESADORES MULTINÚCLEO EMBEBIDOS EN DISPOSITIVOS DIGITALES AL EJECUTAR APLICACIONES PARALELAS

ANÁLISIS DEL RENDIMIENTO DE PROCESADORES MULTINÚCLEO EMBEBIDOS EN DISPOSITIVOS DIGITALES AL EJECUTAR APLICACIONES PARALELAS ANÁLISIS DEL RENDIMIENTO DE PROCESADORES MULTINÚCLEO EMBEBIDOS EN DISPOSITIVOS DIGITALES AL EJECUTAR APLICACIONES PARALELAS Jimmy Josué Peña Koo Instituto Tecnológico Superior del Sur del Estado de Yucatán

Más detalles

Utilización y optimización de librerías numéricas paralelas

Utilización y optimización de librerías numéricas paralelas Utilización y optimización de librerías numéricas paralelas Seminario de doctorado, UPV 2007 Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia http://dis.um.es/~domingo 1 Motivación

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para

Más detalles