CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS

Tamaño: px
Comenzar la demostración a partir de la página:

Download "CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS"

Transcripción

1 CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida del Parque 1310 Mesa de Otay, Tijuana, B.C., CP Departamento de Investigación, Laboratorio de Sistemas Inteligentes Eje temático: Ciencias y Tecnologías de la Computación lgaxiola@citedi.mx, jjtapia@citedi.mx Resumen En este trabajo se presenta una comparación de cómputo de alto rendimiento entre procesadores de propósito general y unidades de procesamiento gráfico. Para los cálculos se utilizó un algoritmo de multiplicación de matrices, se ejecutó el programa paralelo en tres procesadores multicore diferentes, en todos los casos, se encontró que no es conveniente usar más hilos que la cantidad de núcleos (cores) físicos del procesador. Además, se implementó el algoritmo de multiplicación de matrices en un procesador gráfico. 1. Introducción La estrategia para mejorar el rendimiento de procesamiento de los procesadores ha cambiado dramáticamente en los últimos años. Anteriormente, la mejora en el rendimiento se basaba en el incremento de la frecuencia de reloj del procesador, en años recientes está estrategia llegó a límites físicos, ya que ocasiona un gran incremento en la temperatura y el consumo de energía del procesador. Como una alternativa para seguir incrementando el rendimiento, se diseña la arquitectura de procesadores multicore, que consiste en tener varias unidades de procesamiento en un chip, actualmente los procesadores de propósito general tienen entre 2 y 10 núcleos. La búsqueda para obtener un mayor rendimiento no solo se basa en estas arquitecturas, ya que actualmente se utilizan las Unidades de Procesamiento Gráfico (GPU, del inglés Graphic Processing Unit) que tienen cientos de núcleos, y permiten resolver problemas de cómputo de alto rendimiento, tales como procesamiento de imágenes y video, modelado en dinámica de fluidos, y en general para procesar en forma paralela una gran cantidad de datos [1]. El éxito de los procesadores multicore (CPUs), involucra fuertes cambios desde la perspectiva del software, ya que la programación secuencial (tradicional) ya no puede obtener provecho de las nuevas arquitecturas. Por lo tanto, es necesaria la implementación paralela de los programas y bibliotecas de funciones con nuevos paradigmas de programación, que optimicen el uso de las nuevas arquitecturas.

2 En este trabajo se presenta un estudio del rendimiento de procesadores multicore, implementando un algoritmo de multiplicación de matrices, que es de O(N 2 ) de almacenamiento en memoria y O(N 3 ) de procesamiento, lo que lo hace interesante para hacer pruebas de rendimiento de cómputo paralelo. Por un lado se utilizan programación paralela en memoria compartida mediante hilos POSIX, para medir el rendimiento de procesadores multicore de propósito general, por otro lado se utiliza el ambiente de desarrollo CUDA para la programación de GPU s. Este trabajo se desarrolla bajo el sistema operativo GNU/Linux. En la Fig. 1. se muestra una comparación del incremento de la capacidad computacional de procesadores gráficos y CPUs en los últimos años. Se observa que los GPUs tiene una capacidad de procesamiento mucho mayor que los CPUs. Fig. 1. Comparación del rendimiento de procesadores de procesadores de Intel y GPUs. Figura cortesía de NVIDIA y adaptada de [2]. En la Fig. 2. Se muestra una comparación del ancho de banda para el acceso a memoria de procesadores de propósito general y GPUs. El ancho de banda delo GPUs es mucho mayor que la de los CPUs, lo cual le permite procesar más datos por ciclo de reloj.

3 Fig. 2. Comparación del ancho de banda para el acceso a memoria en CPUs y GPUs.. Figura cortesía de NVIDIA y adaptada de [3]. En CUDA se cuenta con la biblioteca de funciones CUBLAS, para sistematizar el uso de matrices y resolver problemas de algebra lineal [4]. 2. Programación para el cálculo de la multiplicación de matrices E siguiente código implementa un algoritmo de multiplicación de matrices en forma secuencial, los tres ciclos for anidados muestran que el algoritmo y tiene complejidad O(N 3 ) for (i = 1 ; i <= n ; i++) for (j = 1 ; j <= n ; j++){ c[i][j]=0; for (k = 1 ; k <= n ; k++){ c[i][j] += a[i][k]*b[k][j]; La programación usando hilos POSIX, puede ser consultada en [5]. El siguiente código nos permite multiplicar matrices en paralelo usando hilos POSIX

4 int main () { for ( i = 0 ; i < NUM_THREADS ; i++) { thread_args[i].ren_ini = i* N/NUM_THREADS; thread_args[i].ren_fin = ((i+1) * N/NUM_THREADS)-1; for ( i = 0 ; i < NUM_THREADS ; i++) pthread_create (&thread_id[i], NULL, &crea_mat, &thread_args[i]); void* mul_mat (void* parameters){ for ( i = p->ren_ini ; i < p-> ren_fin ; i++){ for ( j = 0 ; j < N ; j++) { c[i][j] = 0 ; for ( k = 0 ; k < N ; k++) c[i][j] += a[i][k]*b[k][j]; A continuación se presenta el código para la multiplicación de matrices en un GPU, cada elemento de la matriz resultante es calculado por un hilo, se observa que en la función mul_mat, solo hay un ciclo for, ya que los otros dos se realizan por hardware. global void mul_mat( int *a, int *b, int *c ) { int k ; int x = threadidx.x + blockidx.x * blockdim.x; int y = threadidx.y + blockidx.y * blockdim.y; int tid = x + y * blockdim.x * griddim.x; c[tid] = 0 ; for ( k = 0 ; k < DIM ; k++ ) c[tid] += a[x+k* blockdim.x * griddim.x] * b[ k + y * blockdim.x * griddim.x ]; int main( void ) {.. dim3 grids(dim/64,dim/64); dim3 threads(64,64); mul_mat<<<grids, threads>>>( dev_a, dev_b, dev_c );

5 3. Resultados En la Tabla 1 se presenta el speedup calculado con el algoritmo de multiplicación de matrices, para el procesador Quadcore, se observa que para tres y cuatro cores el speedup no se incrementa, esto se debe a que el procesador i3 tiene solo dos cores físicos. Tabla 1. Speedup calculado para el procesador multicore i3 Speedup multicore i3 Tamaño Matriz 2 Cores 3 Cores 4 Cores En la Tabla 2 se presenta el speedup calculado con el algoritmo de multiplicación de matrices, para el procesador Quadcore, se observa que el speedup se incrementa a medida que se incrementa el número de cores. Tabla 2. Speedup calculado para el procesador Quadcore Speedup Quad core TamañoMatriz 2 Cores 3 Cores 4 Cores En la Tabla 3 se presenta el speedup calculado con el algoritmo de multiplicación de matrices, para el procesador multicore i7, se observa que el speedup se incrementa a medida que se incrementa el número de cores, hasta llegar a cuatro cores, para más de cinco cores el speedup no se incrementa, esto se debe a que el procesador i7 solo tiene cuatro cores físicos.

6 Tabla 3. Speedup calculado para el procesador multicore i7 Speedup Multicore i7 Tamañomatriz 2 Cores 3 Cores 4 Cores 5 Cores 6 Cores 7 Cores 8 Cores Conclusiones y Trabajo Futuro En este trabajo, se implementó un programa que multiplica dos matrices usando hilos POSIX en procesadores multinúcleo, se ejecuta en diferentes computadoras con procesador multinúcleo y se hace un análisis del speedup obtenido se observa que es escalable hasta en cuatro núcleos, para una cantidad mayor se pierde la escalabilidad debido posiblemente a un cuello de botella en el acceso a memoria. También se implementa el algoritmo de multiplicación de matrices en procesadores gráficos, considerando diferentes opciones en el manejo de la memoria. Comparando el tiempo de ejecución en ambas arquitecturas se observa que un procesador gráfico de mediana capacidad es 10 veces más rápido que un procesador de cuatro núcleos Como trabajo futuro se puede hacer un análisis de rendimiento en un sistema con hasta cuatro GPUs conectadas mediante el bus PCIe de una computadora personal. También se puede aprovechar el cómputo distribuido y hacer un análisis de rendimiento en un clúster de computadoras con GPUs. Agradecimientos. Este trabajo ha sido apoyado por la COFAA-IPN y el proyecto IPN-SIP Referencias [1] Sanders J., Kandrot E.: CUDA by Example: An introduction to General-Purpose GPU Programming. Addison-Wesley, [2] Nvidia: Nvidia CUDA C Programmers Guide version 4.0, [3] Nvidia: CUDA C Best Practice Guide version 4.0, [4] Igual Peña F. D.: Matrix Computation on Graphics Processors and Clusters of GPUs. Ph D. thesis, Universidad Jaume I de Catellón, [5] The Art of concurrency: A thread Monkey s Guide to Writing Parallel Applications, O Reilly, 2009.

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en

Más detalles

Nociones básicas de computación paralela

Nociones básicas de computación paralela Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad

Más detalles

Tile64 Many-Core. vs. Intel Xeon Multi-Core

Tile64 Many-Core. vs. Intel Xeon Multi-Core Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

Seminario II: Introducción a la Computación GPU

Seminario II: Introducción a la Computación GPU Seminario II: Introducción a la Computación GPU CONTENIDO Introducción Evolución CPUs-Evolución GPUs Evolución sistemas HPC Tecnologías GPGPU Problemática: Programación paralela en clústers heterogéneos

Más detalles

Primeros pasos con CUDA. Clase 1

Primeros pasos con CUDA. Clase 1 Primeros pasos con CUDA Clase 1 Ejemplo: suma de vectores Comencemos con un ejemplo sencillo: suma de vectores. Sean A, B y C vectores de dimensión N, la suma se define como: C = A + B donde C i = A i

Más detalles

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández gines.guerrero@ditec.um.es Grupo de Arquitecturas y Computación Paralela

Más detalles

Uso eficiente de tarjetas gráficas para la visualización volumétrica de campos escalares

Uso eficiente de tarjetas gráficas para la visualización volumétrica de campos escalares Uso eficiente de tarjetas gráficas para la visualización volumétrica de campos escalares Responsables M. en I. Oscar Yañez Suárez (yaso@xanum.uam.mx) Dr. Jorge Garza Olguín (jgo@xanum.uam.mx) Perfil deseable

Más detalles

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:

Más detalles

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo

Más detalles

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013

FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013 FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación

Más detalles

Arquitecturas GPU v. 2013

Arquitecturas GPU v. 2013 v. 2013 Stream Processing Similar al concepto de SIMD. Data stream procesado por kernel functions (pipelined) (no control) (local memory, no cache OJO). Data-centric model: adecuado para DSP o GPU (image,

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí FLAG/C Una API para computación matricial sobre GPUs M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí High Performance Computing & Architectures Group Universitat Jaume I de Castellón

Más detalles

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción a la concurrencia

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción a la concurrencia CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Introducción a la concurrencia 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Grado en Ingeniería

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

GPGPU Avanzado. Sistemas Complejos en Máquinas Paralelas. Esteban E. Mocskos (emocskos@dc.uba.ar) 5/6/2012

GPGPU Avanzado. Sistemas Complejos en Máquinas Paralelas. Esteban E. Mocskos (emocskos@dc.uba.ar) 5/6/2012 Sistemas Complejos en Máquinas Paralelas GPGPU Avanzado Esteban E. Mocskos (emocskos@dc.uba.ar) Facultad de Ciencias Exactas y Naturales, UBA CONICET 5/6/2012 E. Mocskos (UBA CONICET) GPGPU Avanzado 5/6/2012

Más detalles

Modelos de Programación Paralela Prof. Gilberto Díaz

Modelos de Programación Paralela Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Modelo de aplicaciones CUDA

Modelo de aplicaciones CUDA Modelo de aplicaciones CUDA Utilización de GPGPUs: las placas gráficas se utilizan en el contexto de una CPU: host (CPU) + uno o varios device o GPUs Procesadores masivamente paralelos equipados con muchas

Más detalles

ELEMENTOS HARDWARE DEL ORDENADOR. Tarjeta gráfica

ELEMENTOS HARDWARE DEL ORDENADOR. Tarjeta gráfica ELEMENTOS HARDWARE DEL ORDENADOR Tarjeta gráfica Qué es? Tarjeta Gráfica 1. Interpreta los datos que le llegan del procesador, ordenándolos y calculando el valor de cada píxel, lo almacena en la memoria

Más detalles

Análisis de rendimiento de algoritmos paralelos

Análisis de rendimiento de algoritmos paralelos Análisis de rendimiento de algoritmos paralelos Joaquín Andrés López Molina josandlopmol@gmail.com Daniel Mauricio Rodríguez Alpizar danielmau231995@hotmail.com Estudiantes de Ingeniería en Computación

Más detalles

Duración (en horas) Evaluación de los aprendizajes

Duración (en horas) Evaluación de los aprendizajes NÚCLEO: Sector Comercio y Servicios SUBSECTOR: Informática y comunicación Nombre del Módulo: ARQUITECTURA DE COMPUTADORES total: 60 horas Objetivo General: Explicar el funcionamiento interno de un equipo

Más detalles

INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS

INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS INTRODUCCIÓN A LA COMPUTACIÓN PARALELA CON GPUS Sergio Orts Escolano sorts@dtic.ua.es Vicente Morell Giménez vmorell@dccia.ua.es Universidad de Alicante Departamento de tecnología informática y computación

Más detalles

1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento.

1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento. 1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento. Arquitecturas Clásicas. Estas arquitecturas se desarrollaron en las primeras computadoras electromecánicas y de tubos

Más detalles

Francisco Javier Hernández López

Francisco Javier Hernández López Francisco Javier Hernández López fcoj23@cimat.mx http://www.cimat.mx/~fcoj23 Ejecución de más de un cómputo (cálculo) al mismo tiempo o en paralelo, utilizando más de un procesador. Arquitecturas que hay

Más detalles

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS

GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS GPU IMPLEMENTATIONS OF SCHEDULING HEURISTICS FOR HETEROGENEOUS COMPUTING ENVIRONMENTS MAURO CANABÉ SERGIO NESMACHNOW Centro de Cálculo, Facultad de Ingeniería Universidad de la República, Uruguay GPU IMPLEMENTATIONS

Más detalles

1.87 GHZ QUAD Q9550 G 2.83 GHZ QUAD CPU 2.83GHZ 1.86 GHZ 1.87GHZ 2.80 GHZ 2.80GHZ 1.87 GHZ

1.87 GHZ QUAD Q9550 G 2.83 GHZ QUAD CPU 2.83GHZ 1.86 GHZ 1.87GHZ 2.80 GHZ 2.80GHZ 1.87 GHZ ANIMACIÓN POR COMPUTADORA ANIMACIÓN POR COMPUTADORA ARQUITECTURA DE COMPUTADORAS ARQUITECTURA DE COMPUTADORAS 2.80 2.80 1.87 2.80 2.80 1.87-3 SEMPRON - 2 CORE 2 DUO Hardware I para que los alumnos Hardware

Más detalles

Universidad de Córdoba. Trabajo de Fin de Máster

Universidad de Córdoba. Trabajo de Fin de Máster Universidad de Córdoba Máster en Sistemas Inteligentes Trabajo de Fin de Máster Minería de Reglas de Asociación en GPU Córdoba, Julio de 2013 Autor: Alberto Cano Rojas Director: Dr. Sebastián Ventura Soto

Más detalles

PROGRAMACIÓN AVANZADA DE GPUs PARA APLICACIONES CIENTÍFICAS

PROGRAMACIÓN AVANZADA DE GPUs PARA APLICACIONES CIENTÍFICAS Grupo de Ing. Electrónica aplicada a Espacios INteligentes y TRAnsporte Área Audio-Visual PROGRAMACIÓN AVANZADA DE GPUs PARA APLICACIONES CIENTÍFICAS Torrevieja (Alicante) Del 19 al 22 de Julio Álvaro

Más detalles

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators

Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Solving Dense Linear Systems on Platforms with Multiple Hardware Accelerators Maribel Castillo, Francisco D. Igual, Rafael Mayo, Gregorio Quintana-Ortí, Enrique S. Quintana-Ortí, Robert van de Geijn Grupo

Más detalles

Programación de GPUs con CUDA

Programación de GPUs con CUDA Programación de GPUs con CUDA Alvaro Cuno 23/01/2010 1 Agenda GPUs Cuda Cuda + OpenGL 2 GPUs (Graphics Processing Units) 3 Supercomputadores Mapa de los 100 supercomputadores Sudamérica: posiciones 306

Más detalles

UNIVERSIDAD AUTÓNOMA DE CHIAPAS LICENCIATURA EN SISTEMAS COMPUTACIONALES

UNIVERSIDAD AUTÓNOMA DE CHIAPAS LICENCIATURA EN SISTEMAS COMPUTACIONALES UNIVERSIDAD AUTÓNOMA DE CHIAPAS LICENCIATURA EN SISTEMAS COMPUTACIONALES Área de formación: Disciplinaria. Unidad académica: Sistemas Operativos. Ubicación: Sexto Semestre. Clave: 1995 Horas semana-mes:

Más detalles

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom

Más detalles

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs

Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Técnicas SuperEscalares en la Paralelización de Bibliotecas de Computación Matricial sobre Procesadores Multinúcleo y GPUs Enrique S. Quintana-Ortí quintana@icc.uji.es High Performance Computing & Architectures

Más detalles

Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices

Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices MTI Jimmy Josué Peña Koo Instituto Tecnológico Superior del Sur

Más detalles

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA G650 - Organización de Computadores Grado en Ingeniería Informática Curso Académico 2015-2016 1. DATOS IDENTIFICATIVOS Título/s Grado en Ingeniería Informática Tipología

Más detalles

Ley de Amdahl Ley de Moore Prof. Gilberto Díaz

Ley de Amdahl Ley de Moore Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Ley de Amdahl Ley de Moore Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Computación Híbrida, Heterogénea y Jerárquica

Computación Híbrida, Heterogénea y Jerárquica Computación Híbrida, Heterogénea y Jerárquica http://www.ditec.um.es/ javiercm/curso psba/ Curso de Programación en el Supercomputador Ben-Arabí, febrero-marzo 2012 Organización aproximada de la sesión,

Más detalles

Utilización de Cluster de GPU en HPC. Un caso de estudio

Utilización de Cluster de GPU en HPC. Un caso de estudio Utilización de Cluster de GPU en HPC. Un caso de estudio Erica Montes de Oca, Laura De Giusti, Franco Chichizola, Armando De Giusti, Marcelo Naiouf Instituto de Investigación en Informática LIDI (III-LIDI)

Más detalles

VINCULACIÓN DE ASIGNATURAS A ÁREAS DE CONOCIMIENTO Graduado/a en Ingeniería Informática

VINCULACIÓN DE ASIGNATURAS A ÁREAS DE CONOCIMIENTO Graduado/a en Ingeniería Informática Página 1 de 6 Administración de Bases de Datos Administración de Redes y Sistemas Administración de Sistemas Operativos Algoritmia y Complejidad Ampliación de Física Análisis y Diseño de Algoritmos Análisis

Más detalles

MINISTERIO DE EDUCACIÓN PÚBLICA IPEC DE SANTA BÁRBARA MANTENIMIENTO DE EQUIPO DE COMPUTACIÓN. Tarjetas Madres Placas Base - Motherboard

MINISTERIO DE EDUCACIÓN PÚBLICA IPEC DE SANTA BÁRBARA MANTENIMIENTO DE EQUIPO DE COMPUTACIÓN. Tarjetas Madres Placas Base - Motherboard MINISTERIO DE EDUCACIÓN PÚBLICA IPEC DE SANTA BÁRBARA MANTENIMIENTO DE EQUIPO DE COMPUTACIÓN Tarjetas Madres Placas Base - Motherboard QUÉ ES UNA TARJETA MADRE? Es el componente principal a nivel de hardware.

Más detalles

UNIVERSIDAD DE GUADALAJARA

UNIVERSIDAD DE GUADALAJARA UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS TALLER DE SISTEMAS

Más detalles

Modelado de los computadores paralelos

Modelado de los computadores paralelos Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente

Más detalles

40803 - Introducción a la Informática 40807 - Fundamentos de Programación 40817 - Ingeniería del Software I 40822 - Ingeniería del Software II 40866

40803 - Introducción a la Informática 40807 - Fundamentos de Programación 40817 - Ingeniería del Software I 40822 - Ingeniería del Software II 40866 T1 T2 T3 T4 T5 40804 - Técnicas de Comunicación para la Ingeniería I 40809 - Técnicas de Comunicación para la Ingeniería II 40813 - Programación I T6 T7 40813 - Programación I 40868 - La Informática como

Más detalles

Técnicas de paralelización de código para robots basados en emociones

Técnicas de paralelización de código para robots basados en emociones 1 UNIVERSIDAD POLITECNICA DE VALENCIA G R A D O E N I N G E N I E R Í A I N F O R M Á T I C A Técnicas de paralelización de código para robots basados en emociones TRABAJO FINAL DE GRADO Autor: Francisco

Más detalles

CUDA Overview and Programming model

CUDA Overview and Programming model Departamento de Ciencias de la computación Universidad de Chile Modelado en 3D y sus Aplicaciones en Realidad Virtual CC68W CUDA Overview and Programming model Student: Juan Silva Professor: Dr. Wolfram

Más detalles

UC I. Rest. Ciclo Tipo UCR

UC I. Rest. Ciclo Tipo UCR (01) - Primer Semestre Página 1 de 8 1004 CALCULO 10 6 No B OB 0 1006 SISTEMAS DE REPRESENTACION 10 4 No B OB 0 1035 METODOS Y TECNICAS DE INVESTIGACION 3 No B EL 0 1053 INGENIERIA DE SISTEMAS 4 No B OB

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,

Más detalles

High Performance Computing and Architectures Group

High Performance Computing and Architectures Group HPCA Group 1 High Performance Computing and Architectures Group http://www.hpca.uji.es Universidad Jaime I de Castellón ANACAP, noviembre de 2008 HPCA Group 2 Generalidades Creado en 1991, al mismo tiempo

Más detalles

Segunda Parte: TECNOLOGÍA CUDA

Segunda Parte: TECNOLOGÍA CUDA Segunda Parte: (compute unified device architecture) 12 I. CUDA CUDA es una arquitectura de cálculo paralelo de NVIDIA que aprovecha la potencia de la GPU (unidad de procesamiento gráfico) para proporcionar

Más detalles

Soluciones para entornos HPC

Soluciones para entornos HPC Dr.. IT Manager / Project Leader @ CETA-Ciemat abelfrancisco.paz@ciemat.es V Jornadas de Supercomputación y Avances en Tecnología INDICE 1 2 3 4 HPC Qué? Cómo?..................... Computación (GPGPU,

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Montaje y Reparación de Sistemas Microinformáticos

Montaje y Reparación de Sistemas Microinformáticos Montaje y Reparación de Sistemas s Es uno de los componentes más imprescindible del equipo informático. Al igual que el resto de tarjetas de expansión, la tarjeta gráfica se conecta al bus PCIe. Algunas

Más detalles

Librería Thrust. Clase 4. http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases

Librería Thrust. Clase 4. http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases Librería Thrust Clase 4 http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases Hasta aquí... CUDA C/C++ Control de bajo nivel del mapeo al hardware Desarrollo de algoritmos de alta performance.

Más detalles

Módulo: Modelos de programación para Big Data

Módulo: Modelos de programación para Big Data Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data

Más detalles

Utilización de la programación paralela en procesadores gráficos para el cálculo científico.

Utilización de la programación paralela en procesadores gráficos para el cálculo científico. Utilización de la programación paralela en procesadores gráficos para el cálculo científico. EMNO 2013 Rolando E. Rodríguez Fernández Medicina Computacional, Instituto de Nefrología. y Facultad de Física,

Más detalles

Heterogénea y Jerárquica

Heterogénea y Jerárquica Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida

Más detalles

Andres Felipe Rojas / Nancy Gelvez. UNESCO UNIR ICT & Education Latam Congress 2016

Andres Felipe Rojas / Nancy Gelvez. UNESCO UNIR ICT & Education Latam Congress 2016 Distributed processing using cosine similarity for mapping Big Data in Hadoop (Procesamiento distribuido usando similitud de coseno para mapear Big Data en Haddop) Andres Felipe Rojas / Nancy Gelvez UNESCO

Más detalles

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA

EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA EL CLUSTER FING: COMPUTACIÓN DE ALTO DESEMPEÑO EN FACULTAD DE INGENIERÍA SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY EL CLUSTER

Más detalles

Año académico 2014-15. GUÍA DOCENTE SISTEMAS CONCURRENTES Y PARALELOS Grado en Ingeniería Informática. Profesorado: Fernando Cores Prado

Año académico 2014-15. GUÍA DOCENTE SISTEMAS CONCURRENTES Y PARALELOS Grado en Ingeniería Informática. Profesorado: Fernando Cores Prado Año académico 201-15 GUÍA DOCENTE SISTEMAS CONCURRENTES Y PARALELOS Grado en Ingeniería Informática Profesorado: Fernando Cores Prado Información general de la asignatura Denominación Carácter SISTEMAS

Más detalles

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores

Más detalles

28/08/2014-16:52:22 Página 1 de 5

28/08/2014-16:52:22 Página 1 de 5 - NIVELACION 1 MATEMATICA - NIVELACION FISICA - NIVELACION AMBIENTACION UNIVERSITARIA 1 - PRIMER SEMESTRE 71 REPRESENTACION GRAFICA 1 - PRIMER SEMESTRE 1 INTRODUCCION A LA INGENIERIA Para Cursarla debe

Más detalles

ESCUELA DE INGENIERIA Informática Y Sistemas

ESCUELA DE INGENIERIA Informática Y Sistemas ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN

Más detalles

Computación para Ingeniería

Computación para Ingeniería Computación Para Ingeniería Guía de Aprendizaje Información al estudiante 1. Datos Descriptivos Asignatura Materia Departamento responsable Computación para Ingeniería Computación para Ingeniería Lenguajes

Más detalles

Computación Paralela Móvil

Computación Paralela Móvil Algoritmos y Programación Paralela Facultad de Informática Universidad de Murcia Copyleft c 2008. Reproducción permitida bajo los términos de la licencia de documentación libre GNU. Contenido 1 Introducción

Más detalles

Aplicaciones Concurrentes

Aplicaciones Concurrentes PROGRAMACIÓN CONCURRENTE TEMA 6 Aplicaciones Concurrentes ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA DEPARTAMENTO DE CIENCIAS DE LA COMPUTACIÓN PROGRAMACIÓN CONCURRENTE Aplicaciones Concurrentes

Más detalles

Organización del Computador I. Introducción e Historia

Organización del Computador I. Introducción e Historia Organización del Computador I Introducción e Historia Introducción Qué es una computadora? Stallings: Máquina digital electrónica programable para el tratamiento automático de la información, capaz de

Más detalles

Arquitecturas vectoriales, SIMD y extensiones multimedia

Arquitecturas vectoriales, SIMD y extensiones multimedia Arquitecturas vectoriales, SIMD y extensiones multimedia William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU Computación de Propósito General en Unidades de Procesamiento Gráfico () E. Dufrechou, P. Ezzatti M. Pedemonte Práctico Programación con CUDA Práctica 0: Ejecución del ejemplo visto en teórico (suma de

Más detalles

DESCUBRE ICESI INGENIERÍA DE SISTEMAS

DESCUBRE ICESI INGENIERÍA DE SISTEMAS CATALINA SIERRA SEMESTRE VIII INGENIERÍA DE SISTEMAS FACULTAD DE INGENIERÍA ESTUDIAR ESTA CARRERA EN UNA UNIVERSIDAD CON ACREDITACIÓN DE ALTA CALIDAD, NOS ABRE MUCHAS PUERTAS HACIA EL FUTURO. INGENIERÍA

Más detalles

Procesador Intel Core 2 Extreme de 4 núcleos Traducción de Textos Curso 2007/2008

Procesador Intel Core 2 Extreme de 4 núcleos Traducción de Textos Curso 2007/2008 Procesador Intel Core 2 Traducción de Textos Curso 2007/2008 Versión Cambio 0.9RC Revisión del texto 0.8 Traducido el octavo párrafo 0.7 Traducido el séptimo párrafo Autor: Rubén Paje del Pino i010328

Más detalles

Introduccion a Sistemas Operativos. Ej: Linux

Introduccion a Sistemas Operativos. Ej: Linux Universidad Nacional de Ingeniería Facultad de Ciencias Física Computacional CC063 Introduccion a Sistemas Operativos. Ej: Linux Prof: J. Solano 2012-I Resumen Qué hacen los sistemas operativos? Organización

Más detalles

Especialidades en GII-TI

Especialidades en GII-TI Especialidades en GII-TI José Luis Ruiz Reina (coordinador) Escuela Técnica Superior de Ingeniería Informática Mayo 2014 Qué especialidades tiene la Ingeniería Informática? Según las asociaciones científicas

Más detalles

Cómputo en paralelo con OpenMP 1

Cómputo en paralelo con OpenMP 1 Cómputo en paralelo con OpenMP 1 Miguel Vargas-Félix miguelvargas@cimat.mx http://www.cimat.mx/~miguelvargas CIMAT, September 2, 2015 1/34 Velocidad de los procesadores de escritorio Recientemente, la

Más detalles

PERFIL PROFESIOGRÁFICO PARA IMPARTIR LAS ASIGNATURAS DE LA LICENCIATURA EN INFORMÁTICA (PLAN DE ESTUDIOS 2005)

PERFIL PROFESIOGRÁFICO PARA IMPARTIR LAS ASIGNATURAS DE LA LICENCIATURA EN INFORMÁTICA (PLAN DE ESTUDIOS 2005) ASIGNATURAS SEMESTRE LICENCIATURA EN: OTROS REQUERIMIENTOS Teoría del Conocimiento (1156) 1 Filosofía Administración Básica (1157) 1 Administración o afín, Maestría en Administración Análisis, Diseño e

Más detalles

Arquitectura FPGA para un Procesador Matricial

Arquitectura FPGA para un Procesador Matricial Arquitectura FPGA para un Procesador Matricial Miguel Morales-Sandoval, Moisés Pérez-Gutiérrez, Claudia Feregrino-Uribe, Miguel Arias-Estrada Coordinación de Ciencias Computacionales Instituto Nacional

Más detalles

Computación paralela y distribuida

Computación paralela y distribuida Computación paralela y distribuida MSC-0302 Nombre de la asignatura: Computación paralela y distribuida Línea de trabajo: Tecnologías web Tiempo de dedicación del estudiante a las actividades de: DOC TIS

Más detalles

Modelación Matemática y Computacional en Ciencias e Ingenierías

Modelación Matemática y Computacional en Ciencias e Ingenierías Universidad Nacional Autónoma de México Facultad de Ciencias Modelación Matemática y Computacional en Ciencias e Ingenierías Presenta: Antonio Carrillo Ledesma La Ciencia en las Calles Noviembre de 2009

Más detalles

4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC:

4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC: 4.1 CONGRUENCIA ENTRE LOS OBJETIVOS DEL PLAN DE ESTUDIOS Y EL PERFIL DE EGRESO CON LAS LGAC: A continuación se muestran los objetivos así como los mapas funcionales según la línea de acentuación y la línea

Más detalles

DEPARTAMENTO DE INGENIERÍA EN INFORMÁTICA INGENIERÍA TÉCNICA EN INFORMÁTICA DE GESTIÓN INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS

DEPARTAMENTO DE INGENIERÍA EN INFORMÁTICA INGENIERÍA TÉCNICA EN INFORMÁTICA DE GESTIÓN INGENIERÍA TÉCNICA EN INFORMÁTICA DE SISTEMAS ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA SELLO REGISTRO ENTRADA SOLICITUD DE CONVALIDACIÓN DE ESTUDIOS DE... INGENIERÍA EN INFORMÁTICA INGENIERÍA TÉCNICA EN INFORMÁTICA DE GESTIÓN INGENIERÍA

Más detalles

Arquitecturas y programación de procesadores gráficos. Nicolás Guil Mata Dpto. de Arquitectura de Computadores Universidad de Málaga

Arquitecturas y programación de procesadores gráficos. Nicolás Guil Mata Dpto. de Arquitectura de Computadores Universidad de Málaga Arquitecturas y programación de procesadores gráficos Dpto. de Arquitectura de Computadores Universidad de Málaga Indice Arquitectura de las GPUs Arquitectura unificada Nvidia: GT200 Diagrama de bloques

Más detalles

Plataformas distribuidas para análisis de grandes grafos. Dr. Cristian Mateos Díaz CONICET / ISISTAN UNICEN

Plataformas distribuidas para análisis de grandes grafos. Dr. Cristian Mateos Díaz CONICET / ISISTAN UNICEN Plataformas distribuidas para análisis de grandes grafos Dr. Cristian Mateos Díaz CONICET / ISISTAN UNICEN http://www.exa.unicen.edu.ar/~cmateos 1 Introducción Big data conduce a grandes volúmenes de datos,

Más detalles

AMPLIACIÓN DE PROGRAMACIÓN AVANZADA

AMPLIACIÓN DE PROGRAMACIÓN AVANZADA - AMPLIACIÓN DE PROGRAMACIÓN AVANZADA Grado en Ingeniero en Informática Universidad de Alcalá Curso Académico 2015/16 Curso 3º Cuatrimestre 2º GUÍA DOCENTE Nombre de la asignatura: AMPLIACIÓN PROGRAMACIÓN

Más detalles

6. PROCESADORES SUPERESCALARES Y VLIW

6. PROCESADORES SUPERESCALARES Y VLIW 6. PROCESADORES SUPERESCALARES Y VLIW 1 PROCESADORES SUPERESCALARES Y VLIW 1. Introducción 2. El modelo VLIW 3. El cauce superescalar 4. Superescalar con algoritmo de Tomasulo 2 PROCESADORES SUPERESCALARES

Más detalles

Ejemplos de optimización para Kepler. 1. Balanceo dinámico de la carga. Contenidos de la charla [18 diapositivas]

Ejemplos de optimización para Kepler. 1. Balanceo dinámico de la carga. Contenidos de la charla [18 diapositivas] Ejemplos de optimización para Kepler Manuel Ujaldón Nvidia CUDA Fellow Dpto. Arquitectura de Computadores Universidad de Málaga Contenidos de la charla [18 diapositivas] 1. Balanceo dinámico de la carga.

Más detalles

Filtrado de imágenes usando hardware dedicado

Filtrado de imágenes usando hardware dedicado Filtrado de imágenes usando hardware dedicado Acosta Nelson & Tosini Marcelo INCA/INTIA Depto. Computación y Sistemas Fac. Cs. exactas UNCPBA (7000) Tandil Argentina Email: { nacosta, mtosini }@exa.unicen.edu.ar

Más detalles

0.Principios del Microprocesador

0.Principios del Microprocesador There are no translations available. La revolución tecnológica en integración de componentes ha llegado a extremos insospechados, un ejemplo los procesadores Dual Core.. PROCESADORES DE DOBLE NÚCLEO ÍNDICE

Más detalles

Nombre de la asignatura: Algoritmos y Lenguajes de programación.

Nombre de la asignatura: Algoritmos y Lenguajes de programación. Nombre de la asignatura: Algoritmos y Lenguajes de programación. Créditos: 2-4- 6 Aportación al perfil Dominar la lógica necesaria para aprender lenguajes de programación de alto nivel para poder resolver

Más detalles

Asignaturas antecedentes y subsecuentes

Asignaturas antecedentes y subsecuentes PROGRAMA DE ESTUDIOS Introducción a las Ciencias Computacionales Área a la que pertenece: Área General Horas teóricas: 2 Horas practicas: 1 Créditos: 5 Clave: F0153 Asignaturas antecedentes y subsecuentes

Más detalles

Una experiencia de iniciación al paralelismo en segundo curso del Grado de Ingeniería Informática

Una experiencia de iniciación al paralelismo en segundo curso del Grado de Ingeniería Informática Una experiencia de iniciación al paralelismo en segundo curso del Grado de Ingeniería Informática Manuel E. Acacio, Javier Cuenca, Lorenzo Fernández, Ricardo Fernández-Pascual Departamento de Ingeniería

Más detalles

Departamento de Arquitectura de computadores y electrónica Universidad de Almería. Tesis Doctoral

Departamento de Arquitectura de computadores y electrónica Universidad de Almería. Tesis Doctoral Departamento de Arquitectura de computadores y electrónica Universidad de Almería Tesis Doctoral Computación algebraica dispersa con procesadores grácos y su aplicación en tomografía electrónica Francisco

Más detalles

Computación de alto desempeño en GPU

Computación de alto desempeño en GPU Computación de alto desempeño en GPU María Fabiana Piccoli Computación de alto desempeño en GPU XVII CONGRESO ARGENTINO DE CIENCIA DE LA COMPUTACIÓN XV ESCUELA INTERNACIONAL DE INFORMATICA FACULTAD DE

Más detalles

Unidad I: Introducción a las estructuras de datos

Unidad I: Introducción a las estructuras de datos Unidad I: Introducción a las estructuras de datos 1.1 Tipos de datos abstractos (TDA) Los tipos de datos abstractos (TDA) encapsulan datos y funciones que trabajan con estos datos. Los datos no son visibles

Más detalles

CAPITULO 1 INTRODUCCION AL PROYECTO

CAPITULO 1 INTRODUCCION AL PROYECTO CAPITULO 1 INTRODUCCION AL PROYECTO 1 INTRODUCCION AL PROYECTO 1.1 Marco Teórico Los procesadores digitales de señales ganaron popularidad en los años sesentas con la introducción de la tecnología de estado

Más detalles

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed COMPUTADORES MULTINUCLEO Stallings W. Computer Organization and Architecture 8ed Computador multinucleo Un computador multinúcleocombina dos o mas procesadores (llamados núcleos) en una única pieza de

Más detalles

SUMA de Vectores: Hands-on

SUMA de Vectores: Hands-on SUMA de Vectores: Hands-on Clase X http://fisica.cab.cnea.gov.ar/gpgpu/index.php/en/icnpg/clases Algunas preguntas practicas (1) Que pasa si los vectores a sumar son muy grandes? (2) Como saber en que

Más detalles

Tecnología de software para sistemas de tiempo real

Tecnología de software para sistemas de tiempo real 1 dit UPM Tecnología de software para sistemas de tiempo real Juan Antonio de la Puente DIT/UPM Motivación Las herramientas y la tecnología de software que se usan para construir otros tipos de sistemas

Más detalles