Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica"

Transcripción

1 Evaluación de costos de comunicación en arquitecturas para computación heterogénea aplicadas a computación científica Nelson Rodríguez, Marìa Murazzo, Diego Medel, Maximiliano Fernández, Facundo González Departamento e Instituto de Informática - F.C.E.F. y N. - U.N.S.J. Complejo Islas Malvinas. Cereceto y Meglioli Rivadavia. San Juan. Tel: nelson@iinfo.unsj.edu.ar marite@unsj-cuim.edu.ar mdiego88@gmail.com mascy086@gmail.com facu_jgg@hotmail.com Resumen Los cluster de commodity permiten alcanzar procesamiento de alta perforance a costos muy convenientes, son escalables y extensibles, permitiendo incrementar su capacidad gradualmente agregando equipos. Las arquitecturas paralelas homogéneas con elementos de proceso de características similares están siendo utilizadas con éxito en distintos ámbitos de la ciencia y de la industria, sin embargo no presentan toda la potencia computacional que podría obtenerse si se ampliara a un sistema de naturaleza heterogénea en el que los nuevos componentes presentan características diferenciales con los anteriores. Este modelo de computación presenta nuevos desafíos fundamentalmente para integrarse con tecnologías diversas, las cuales necesitan comunicarse entre sí, pero este costo de comunicación (fundamentalmente en performance) puede resultar muy caro si no es convenientemente realizado. Por lo tanto al tener diversas estrategias y métodos que utilizan las distintas arquitecturas que componen un cluster, resulta sumamente importante evaluar y encontrar estrategias que minimicen estos costos. El objetivo de este trabajo es la evaluación del costo de la comunicación entre unidades de computación en un Cluster de forma tal de poder analizar los resultados para generar estrategias más adecuadas para incrementar la performance. Palabras clave: HPC, heterogeneous computing, Cluster, GPGPU Contexto El presente trabajo se encuadra dentro del área de I/D Procesamiento Distribuido y Paralelo, y se enmarca dentro del proyecto de investigación Cloud Computing con herramientas libres para evaluación de modelos de despliegue híbrido, presentado en diciembre de 2013 y que tiene como unidades ejecutoras al Departamento e Instituto de Informática de la FCEFyN de la UNSJ. Esta propuesta se ha presentado en una nueva convocatoria, pero los resultados de evaluación la misma se espera que estén para abril del presente año Introducción La computación heterogénea se refiere a sistemas que utilizan una variedad de diferentes tipos de unidades de computación. Una unidad de cálculo puede ser un procesador de propósito general (GPP) y un procesador de propósito especial (como DSP, GPU o Página 729 de 1158

2 FPGA). En general, una plataforma de computación heterogénea consiste en procesadores con diferentes arquitecturas de conjuntos de instrucciones [1]. Una de las primeras definiciones, aparecieron cuando solo existían supercomputadoras y Main Frame, y la define como: la Computación heterogénea es el uso coordinado efectivo y bien orquestado de un conjunto de máquinas de ejecución alta diversas (incluyendo las máquinas paralelas) para proporcionar super velocidad de procesamiento para las tareas computacionales que demandan diversas necesidades informáticas [2]. Las arquitecturas heterogéneas a nivel de nodo han resultado atractivas durante la última década por varias razones comparadas con la CPU tradicional, estas ofrecen alto niveles de performance y son eficientes en consumo de energía y costos [3]. Así, es frecuente encontrar arquitecturas paralelas donde las características de los elementos que componen el sistema (procesadores, memoria, red, etc.) pueden ser diferentes. Los primeros intentos de lograr paralelismo con equipos de commodity fueron los multi-chip, donde el paralelismo se logra teniendo varios procesadores físicos. Luego, al mejorar la escala de integración de los microprocesadores, se alcanzó el paralelismo a nivel de Multi-core. Por otro lado para la programación en Clusters, se consolidaron de estándares como PVM y MPI, Aparecen nuevas situaciones que no pueden ser resueltas mediante la aplicación directa de los modelos y las técnicas conocidas para el caso homogéneo. Se hace necesario adaptar los métodos conocidos y en muchos casos diseñar nuevas estrategias comenzando desde cero. Aparece un conjunto importante de problemas abiertos que están siendo intensamente estudiados y analizados [4]. Dentro del ámbito de la investigación científica, siempre ha existido la necesidad de tener computadoras con grandes capacidades de procesamiento (del orden de los Teraflops) y grandes capacidades de almacenamiento (del orden de los Petabytes). El aporte que ofrecen estos tipos de computadoras es de crucial importancia debido a que permiten realizar números de cálculos imponentes que se desarrollan a nivel de investigación como son las simulaciones en producción industrial, computología examinando bugs en grandes programas, explorando propiedades ferromagnéticas en la física, analizar dinámica molecular a nivel químico, etc. El área informática que lleva a cabo este tipo de procesamiento se llama HPC (High Performance Computing). Cabe resaltar que existen trabajos previos en el área pero ninguno integra las arquitecturas multi-core, placa de video multinùcleo en un Cluster.[5] La dificultad en esta área de conocimiento es la formación de recursos humanos que manejen una variedad de arquitecturas y herramientas de programación. Cada paradigma está caracterizado por un conjunto de atributos de recursos hasta la infraestructura y de las aplicaciones ejecutando en esa infraestructura. Estos sistemas heterogéneos escalables pueden manejar diferentes demandas que los nodos de los sistemas gráficos standalone. En particular el diseño de cada nodo soporta comunicación inter e intra nodo por medio de MPI o IO a disco. Además del benchmark de Linpack en TOP500, existen pocos suites de benchmark aceptados que permiten que la comunidad pueda caracterizar y comparar las arquitecturas y entornos de programación para estos sistemas escalables heterogéneo [6]. Página 730 de 1158

3 La computación Heterogénea es una solución sumamente potente, debido a que la computadora que lidera el TOP 500, la Tianhe-2, desarrollada por La Universidad Nacional de tecnología de defensa de China, utiliza esta tecnología [7]. Combinando la escalabilidad de los clúster con MPI y la gran capacidad de procesamiento de las placas GPGPU [8] con CUDA y el procesamiento multinùcleo se pueden alcanzar niveles colosales de procesamiento. Existen diversos problemas a resolver como aspectos de disponibilidad, eficiencia, extensibilidad, reusabilidad y personalización. Además por la naturaleza distribuida de los datos, resulta dificultoso mantener la consistencia y coherencia de datos, contar con una representación homogénea de los mismos (en una plataforma heterogénea), eficiencia en la sincronización entre las plataformas (distribuida y paralela). Por otro lado si se quiere obtener código fiable se debería realizar la verificación y validación de programas de este tipo, algo que parece por ahora imposible de lograr. GPGPU Las GPUs son un componente común en los clúster de alto rendimiento, por todas sus ventajas conocidas, como su velocidad de procesamiento en paralelo, bajo consumo etc. En la HPC, el número de GPU en cada nodo, cada vez aumenta más, por lo tanto debemos tener una comunicación eficiente, ya sea por las GPU que se encuentran en el mismo nodo, como así también las que se encuentran en distintos nodos, resultando MPI la opción más utilizada. La combinación de MPI con CUDA son variadas, por ejemplo en aplicaciones donde el tamaño de los datos es muy grande para almacenar en la memoria de una sola GPU, no demandará un tiempo mucho mayor de ejecución. Con MPI se puede acelerar, dividiendo y enviando los datos a otras GPUs, e ir escalando. Con CUDA y MPI se puede alcanzar estos objetivos en forma eficiente y sencilla. Como el espacio de memoria de la CPU y la GPU son distintos, debe realizarse una secuencia de pasos para trabajar con ambas. CUDA 4.0 introdujo un nuevo concepto que es Unified Virtual Addressing (UVA), significa que la memoria del host y de todas las GPU (que se encuentran en un nodo) es combinada dentro de un espacio virtual de direcciones. Las tecnologías de aceleración como GPUDirect puede ser utilizado por la librería MPI transparentemente al usuario. Las tecnologías GPUDirect proporcionan gran ancho de banda, comunicaciones de baja latencia con las GPUs de Nvidia. Proporciona comunicación directa entre las GPU y otros dispositivos PCI-E, y acceso directo a la memoria entre las tarjetas de red y la GPU. También reduce considerablemente la latencia de MPISendRecv entre los nodos de GPU de un cluster y mejora el rendimiento general de las aplicaciones. Por lo tanto en la propuesta de investigación todas estas estrategias deben ser comparadas con los métodos tradicionales. MPI El pase de mensajes es un modelo de comunicación ampliamente usado en computación paralela. En años recientes se han logrado desarrollar aplicaciones importantes basadas en este paradigma. El crecimiento en el volumen y diversidad de tales aplicaciones originaron la necesidad de crear un estándar, es así como surge MPI o Message Passing Interface MPI es un estándar que funciona en una amplia variedad de computadoras paralelas y de forma tal que los códigos Página 731 de 1158

4 sean portables. Su diseño está inspirado en máquinas con una arquitectura de memoria distribuida, sin embargo, también se encuentran implementaciones en máquinas con memoria compartida. La ventaja de MPI sobre otras bibliotecas de paso de mensajes, es que los programas que utilizan la biblioteca son portables y rápidos, (porque cada implementación de la librería ha sido optimizada para cada hardware). Sin embargo, el acceso remoto a memoria es lento. El ancho de banda de red y el rendimiento es uno de los factores más cruciales en el rendimiento de implementación de MPI. El estándar es extenso en cuanto al número de rutinas que se especifican y contiene alrededor de 129 funciones muchas de la cuales tienen numerosas variantes y parámetros, aunque muchos programas paralelos pueden ser escritos usando sólo 6 funciones básicas, aunque el resultado puede no ser eficiente. MPI es totalmente compatible con CUDA, que está diseñado para la computación en paralelo en una sola computadora o nodo. Hay muchas razones para querer combinar MPI con CUDA. Una razón es para resolver problemas con un tamaño de datos demasiado grande para caber en la memoria de una sola GPU, o eso requeriría un tiempo de cálculo excesivamente largo en un solo nodo. Otra razón es acelerar una aplicación MPI existente con GPUs o para permitir una aplicación existente multi-gpu de un solo nodo de escalar a múltiples nodos. Otras opciones a evaluar Los mecanismos para desarrollar programas para las distintas arquitecturas expuestos son los más populares, sin embargo en una segunda fase se espera evaluar a PVM, OpenGL (para tarjeta gráfica), pthreads y SILC (dado que se trabajará con OpenMP para multinùcleo) entre otras opciones. Líneas de Investigación, Desarrollo e Innovación Debido a que el espacio de direcciones de memorias entre las distintas computaciones que realiza un Cluster son diferentes (host, multinùcleo, GPU), es necesario evaluar parámetros de la comunicación entre los distintos componentes y analizar cómo afecta a la performance final. Hay que tener en cuenta que las aplicaciones necesitan esta comunicación porque no son cien por ciento paralelas, o sea tienen una porción secuencial y otra paralela, y a su vez algunas computaciones son más convenientes ejecutarlas en una parte de la arquitectura, generando comunicación entre las distintas computaciones. Resultados y Objetivos Se han publicados varios trabajos en el área de Cloud Computing, sin embargo para computación heterogénea se puede citar [10,11]. También se llevaron a cabo trabajos de divulgación. En la actualidad se encuentras 3 tesinas de licenciatura en desarrollo dos de las cuales están próximas a finalizar. Resultados Esperados (Objetivos) El objetivo del grupo de investigación es la evaluación de parámetros de comunicación entre distintas arquitecturas instaladas en un Cluster. Se espera que una vez realizados los estudios pertinentes puedan hacerse propuestas de mejoras para mejorar la mayor eficiencia, el balance de carga y la interoperabilidad. Página 732 de 1158

5 Formación de Recursos Humanos El equipo de trabajo está compuesto por los tres (3) docentes-investigadores (dentro de un grupo de investigación en Cloud Computing que está compuesto de 5 investigadores más), que figuran en este trabajo y 2 alumnos, a los cuales se espera que se incorporen otros alumnos en condición de hacer sus tesinas. Durante 2013 se dirigió una beca de investigación sobre CUDA y otra sobre Hadoop aplicado a computación heterogénea. Ademàs cuatro alumnos que trabajan en el grupo de investigación han sido beneficiados con becas en la escuala de verano de la UNRC y en el HPCLatam. Por otro lado se está dirigiendo una tesina de grado sobre MPI y otra sobre Hybrid Cloud Computing. Se espera también aumentar el número de publicaciones. Por otro lado también se prevé la divulgación de varios temas investigados por medio de cursos de postgrado y actualización o publicaciones de divulgación Referencias [1] Nelson Rodríguez, María Murazzo, Daniela Villafañe, Maximiliano Alves, Diego Medel. Integración de Computación Heterogénea con Hadoop para Cloud Computing. XV WICC. Abril Paraná. Entre Ríos. [2] Brodtkorba,, Dykena, Hagena, Hjelmervika, Storaas. State-of-the-art in heterogeneous computing. Scientific Programming 18 (2010) [3] Ashfaq A. Khokhar, Viktor K. Prasanna, Muhammad E. Shaaban, and Cho-Li Wang. Heterogeneous Computing: Challenges and Opportunities. IEEE COMPUTER fall2002/papers/hc/1/r6018.pdf [4] Moreno de Antonio. Computación paralela y entornos heterogéneos. Soportes Audiovisuales e informáticos. Serie Tesis Doctorales. Servicio de Publicaciones. Universidad de la laguna. Curso 2004/05. Ciencias y tecnologías/23. ISBN.: [5] Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti, Franco Chichizola. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. CACIC [6] Anthony Danaliszy Gabriel Mariny Collin McCurdyy Jeremy S. Meredithy Philip C. Rothy Kyle Spaffordy Vinod Tipparajuy Jeffrey S. Vetter. The Scalable HeterOgeneous Computing (SHOC) Benchmark Suite. GPGPU 10 March 14, [7] [8] Olexandr Isayev. Computación Heterogénea: Nuevo Paradigma Para La Era Exaescala. Paralelizados.com. Comunidad de usuarios de HPC. GPUScience. IDC-Exascale-Executive- Brief_Nov2011. Noviembre 23, 2011 [9] Programación paralela facilitada. NVIDIA Corporation. ew_la.html [10] Rodríguez, Murazzo, Villafañe, Alves, Medel. Integración de Computación Heterogénea con Hadoop para Cloud Computing. XV WICC. Abril Paraná. Entre Ríos [11] Murazzo, Rodríguez, Villafañe, González. Perspectivas en el análisis de grandes volúmenes de datos en el Cloud. I JCC. UNLP. Jun La Plata- Bs As. Página 733 de 1158

Integración de Computación Heterogénea con Hadoop para Cloud Computing

Integración de Computación Heterogénea con Hadoop para Cloud Computing Integración de Computación Heterogénea con Hadoop para Cloud Computing Nelson Rodríguez 1, María Murazzo 2, Daniela Villafañe 3, Maximiliano Alves 4, Diego Medel 5 Departamento e Instituto de Informática

Más detalles

INFORME Científico-tecnológico

INFORME Científico-tecnológico provincia de buenos aires comisión de investigaciones científicas Calle 526 e/ 10 y 11 1900 La Plata Tel. Fax: (0221) 421 7374 / 6205 int.143 D.E.: perapoyo@cic.gba.gov.ar PERSONAL DE APOYO A LA INVESTIGACION

Más detalles

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES

COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de

Más detalles

Evaluación de arquitecturas distribuidas de commodity basadas en software libre. Contexto

Evaluación de arquitecturas distribuidas de commodity basadas en software libre. Contexto Evaluación de arquitecturas distribuidas de commodity basadas en software libre Nelson Rodríguez 1, María Murazzo 2, Adriana Martín 3, Susana Chávez 4, Diego Medel 5, Jorge Mercado 6 1-5 Departamento e

Más detalles

Arquitecturas de Altas Prestaciones y Supercomputación

Arquitecturas de Altas Prestaciones y Supercomputación Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción

Más detalles

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández

MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández gines.guerrero@ditec.um.es Grupo de Arquitecturas y Computación Paralela

Más detalles

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización: PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de

Más detalles

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es

Más detalles

TEMA 4 PROCESAMIENTO PARALELO

TEMA 4 PROCESAMIENTO PARALELO TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

Nociones básicas de computación paralela

Nociones básicas de computación paralela Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Tile64 Many-Core. vs. Intel Xeon Multi-Core

Tile64 Many-Core. vs. Intel Xeon Multi-Core Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez

Más detalles

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Supercomputadores 2 Qué es un supercomputador? Top500

Más detalles

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS

CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA

Más detalles

Computación de Altas Prestaciones Sistemas computacionales

Computación de Altas Prestaciones Sistemas computacionales Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas

Más detalles

Entornos de programación paralela basados en modelos/paradigmas

Entornos de programación paralela basados en modelos/paradigmas Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en

Más detalles

COMPUTACIÓN DE ALTA PERFORMANCE

COMPUTACIÓN DE ALTA PERFORMANCE COMPUTACIÓN DE ALTA PERFORMANCE Curso 2010 Sergio Nesmachnow (sergion@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy) Grupo de Procesamiento Paralelo Aplicado Centro de Cálculo COMPUTACIÓN DE ALTA PERFORMANCE

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Ingeniería en Computación

Ingeniería en Computación Universidad Autónoma del Estado de México Centro Universitario UAEM Valle de México Ingeniería en Computación Unidad de Aprendizaje: Programación Paralela y Distribuida Tema: Introducción a los Sistemas

Más detalles

Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio.

Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio. Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio. Fabiana Leibovich, Silvana Gallo, Laura De Giusti, Franco Chichizola, Marcelo

Más detalles

Programación en Entornos Paralelos: MPI

Programación en Entornos Paralelos: MPI 1-11 Marzo de 2017 FACET -UNT Programación en Entornos Paralelos: MPI Graciela Molina mgracielamolina@gmailcom TRADICIONALMENTE Procesamiento secuencial 2 TRADICIONALMENTE Procesamiento secuencial Si ya

Más detalles

ARQUITECTURA DEL COMPUTADOR

ARQUITECTURA DEL COMPUTADOR 1-11 Marzo de 2017 FACET -UNT ARQUITECTURA DEL COMPUTADOR Graciela Molina gmolina@herrera.unt.edu.ar m.graciela.molina@gmail.com 1 MODELO VON NEUMANN RAM J. Von Neumann frente a la computadora IAS, 1952.

Más detalles

Introducción al Computo Distribuido

Introducción al Computo Distribuido Introducción al Computo Distribuido Facultad de Cs. de la Computación Juan Carlos Conde Ramírez Distributed Computing Contenido 1 Introducción 2 Importancia del Hardware 3 Importancia del Software 1 /

Más detalles

SISTEMAS PARALELOS PROGRAMA ANALÍTICO. Unidad 1: Conceptos básicos Paralelismo. Objetivos del procesamiento paralelo.

SISTEMAS PARALELOS PROGRAMA ANALÍTICO. Unidad 1: Conceptos básicos Paralelismo. Objetivos del procesamiento paralelo. SISTEMAS PARALELOS Año 2018 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas Plan 2003-07/Plan

Más detalles

Tema 3 GPUs: Introducción

Tema 3 GPUs: Introducción Tema 3 GPUs: Introducción Alberto Ros Bardisa Tema 3 GPUs Alberto Ros Bardisa 1 / 15 Agenda 1 GPUs: Introducción 2 GP-GPU 3 Ejemplos comerciales 4 Conclusiones Tema 3 GPUs Alberto Ros Bardisa 2 / 15 Agenda

Más detalles

Paralelismo Híbrido Aplicado a Soluciones de Problemas de Datos Masivos

Paralelismo Híbrido Aplicado a Soluciones de Problemas de Datos Masivos 974 Paralelismo Híbrido Aplicado a Soluciones de Problemas de Datos Masivos Maria A. Murazzo *, Maria Fabiana Piccoli #, Nelson R. Rodriguez *, Diego Medel *, Jorge N. Mercado &, Federico Sanchez **, Ana

Más detalles

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas

Paralelismo. MPI Paso de mensajes. Francisco García Sánchez Departamento de Informática y Sistemas Paralelismo MPI Paso de mensajes Francisco García Sánchez Departamento de Informática y Sistemas Contenido Introducción 1) Uso de MPI 2) Multiplicación de matrices 3) Ordenación por mezcla 4) Programación

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones Tema 1: Introducción Características de los sistemas distribuidos Necesidad de las arquitecturas de red de altas prestaciones Organización de la asignatura Características de

Más detalles

EXTRACCIÓN DE CONOCIMIENTO EN REDES SOCIALES MEDIANTE HERRAMIENTAS DE SOFTWARE LIBRE Y PLATAFORMAS DE HARDWARE PARALELO-DISTRIBUIDAS

EXTRACCIÓN DE CONOCIMIENTO EN REDES SOCIALES MEDIANTE HERRAMIENTAS DE SOFTWARE LIBRE Y PLATAFORMAS DE HARDWARE PARALELO-DISTRIBUIDAS XX Workshop de Investigadores en Ciencias de la Computación 295 EXTRACCIÓN DE CONOCIMIENTO EN REDES SOCIALES MEDIANTE HERRAMIENTAS DE SOFTWARE LIBRE Y PLATAFORMAS DE HARDWARE PARALELO-DISTRIBUIDAS Gouiric,

Más detalles

Computación Voluntaria VS Cloud VS HPC

Computación Voluntaria VS Cloud VS HPC Computación Voluntaria VS Cloud VS HPC Diego Pérez Montes kabute@uvigo.es 2 de 34 Objetivos Exponer áreas de convergencia entre Computación Voluntaria, Cloud y HPC. Un ejemplo práctico (sobre el que hemos

Más detalles

PROCESAMIENTO DISTRIBUIDO

PROCESAMIENTO DISTRIBUIDO Pág. 1 INTRODUCCIÓN PROCESAMIENTO DISTRIBUIDO Arquitectura de comunicaciones: Software básico de una red de computadoras Brinda soporte para aplicaciones distribuidas Permite diferentes Sistemas Operativos

Más detalles

Programación Paralela

Programación Paralela Programación Paralela 4º Grado Ing. Informática Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Datos de la Asignatura PÁGINAS WEB: Web de material docente: http://lsi.ugr.es/~jmantas/ppr/

Más detalles

PARADIGMA y LENGUAJES DE PROGRAMACIÓN

PARADIGMA y LENGUAJES DE PROGRAMACIÓN CATEDRA CARRERA: PARADIGMA y LENGUAJES DE PROGRAMACIÓN LICENCIATURA EN SISTEMAS DE INFORMACION FACULTAD DE CIENCIAS EXACTAS QUIMICAS Y NATURALES UNIVERSIDAD NACIONAL DE MISIONES Año 2017 2do Cuatrimestre

Más detalles

Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.

Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS. Plan 95 Adecuado ASIGNATURA: COMPUTACIÓN PARALELA CON PROCESADORES GRÁFICOS CODIGO: 95-0409 DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS /

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Grupo de Computación Científica y Programación Paralela Universidad de Murcia

Grupo de Computación Científica y Programación Paralela Universidad de Murcia Grupo de Computación Científica y Programación Paralela Universidad de Murcia http://www.um.es/pcgum/ Presentación Líneas de Investigación, Máster en Informática, Universidad de Murcia, diciembre 2013

Más detalles

UNIVERSIDAD DE GUADALAJARA

UNIVERSIDAD DE GUADALAJARA UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS ARQUITECTURA DE COMPUTADORAS

Más detalles

Depto. Sistemas I.O. y Computación. informáticos y Computación Univ. La Laguna

Depto. Sistemas I.O. y Computación. informáticos y Computación Univ. La Laguna Sobre el papel de la programación paralela en los nuevos planes de estudios de informática Francisco Almeida Domingo Giménez José M. Mantas Antonio M. Vidal Depto. Estadística, Depto. Informática y Depto.

Más detalles

Alejandro Molina Zarca

Alejandro Molina Zarca Compute Unified Device Architecture (CUDA) Que es CUDA? Por qué CUDA? Dónde se usa CUDA? El Modelo CUDA Escalabilidad Modelo de programación Programación Heterogenea Memoria Compartida Alejandro Molina

Más detalles

ANALÍTICA DE BIG DATA (BDA)

ANALÍTICA DE BIG DATA (BDA) ANALÍTICA DE BIG DATA (BDA) Tendencias Retos Oportunidades Fabián García Nocetti IIMAS-UNAM CAACFMI-UNAM AMIAC Ciencia de Datos y Big Data Analítica de Big Data (BDA) Aplicaciones Arquitectura General

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Cluster de microprocesadores RISC para problemas de agricultura de precisión

Cluster de microprocesadores RISC para problemas de agricultura de precisión Cluster de microprocesadores RISC para problemas de agricultura de precisión Horacio Martinez del Pezzo, Fernando Emmanuel Frati, Emmanuel Robador, Cristian Rios Departamento de Ciencias Básicas y Tecnológicas,

Más detalles

Utilización de Cluster de GPU en HPC. Un caso de estudio

Utilización de Cluster de GPU en HPC. Un caso de estudio Utilización de Cluster de GPU en HPC. Un caso de estudio Erica Montes de Oca, Laura De Giusti, Franco Chichizola, Armando De Giusti, Marcelo Naiouf Instituto de Investigación en Informática LIDI (III-LIDI)

Más detalles

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Computacion de alto rendimiento. CURSO ACADÉMICO - SEMESTRE Segundo semestre

ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Computacion de alto rendimiento. CURSO ACADÉMICO - SEMESTRE Segundo semestre ANX-PR/CL/001-02 GUÍA DE APRENDIZAJE ASIGNATURA Computacion de alto rendimiento CURSO ACADÉMICO - SEMESTRE 2014-15 - Segundo semestre FECHA DE PUBLICACIÓN Enero - 2015 GA_10II_105000063_2S_2014-15 Datos

Más detalles

Identificación de Algoritmos de Cómputo Intensivo para Big Data y su Implementación en Clouds

Identificación de Algoritmos de Cómputo Intensivo para Big Data y su Implementación en Clouds Identificación de Algoritmos de Cómputo Intensivo para Big Data y su Implementación en Clouds Maria A. Murazzo *, Nelson R. Rodriguez *, Miguel Guevara &, Fernando G. Tinetti # * Departamento e Instituto

Más detalles

Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17

Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Al escuchar la palabra clúster se piensa en grandes maquinas exclusivas de los grandes de la computación

Más detalles

CURSO: DESARROLLADOR PARA APACHE HADOOP

CURSO: DESARROLLADOR PARA APACHE HADOOP CURSO: DESARROLLADOR PARA APACHE HADOOP CAPÍTULO 2: INTRODUCCIÓN A HADOOP www.formacionhadoop.com Índice 1 Qué es Big Data? 2 Qué es Hadoop? 3 Historia de Hadoop 4 Por qué utilizar Hadoop? 5 Core Hadoop

Más detalles

Arquitecturas: Clusters. Edgar Valderrama Lucio Mederos

Arquitecturas: Clusters. Edgar Valderrama Lucio Mederos Arquitecturas: Clusters Edgar Valderrama Lucio Mederos Qué es un cluster? Es un sistema compuesto por varias computadoras (nodos) unidas por una red que se comporta como una única entidad. De un cluster

Más detalles

Introducción a la Computación Paralela

Introducción a la Computación Paralela Metodología de la Programación Paralela Facultad Informática, Universidad de Murcia Introducción a la Computación Paralela Bibliografía básica Introducción Del curso, capítulos 1 a 6 De esta sesión, capítulos

Más detalles

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES MÁSTER EN NUEVAS TECNOLOGÍAS EN INFORMÁTICA Diciembre 2010 Introducción Por qué utilizar Matlab paralelo? MATLAB es

Más detalles

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente

PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Programación Concurrente 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Facultad: Máster

Más detalles

Computación en Internet: Librería MALLBA para problemas de optimización

Computación en Internet: Librería MALLBA para problemas de optimización Computación en Internet: Librería MALLBA para problemas de optimización Maria J. Blesa Jordi Petit Fatos Xhafa Departament de Llenguatges i Sistemes Informàtics Universitat Politècnica de Catalunya Campus

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

Guía docente de la asignatura

Guía docente de la asignatura Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPLEMENTOS DE INGENIERÍA DE COMPUTADORES (vacío) GRADO EN INGENIERÍA INFORMÁTICA Plan 464 Código 45218 Periodo de impartición 1 er. CUATRIMESTRE

Más detalles

Bases de Datos Especializadas

Bases de Datos Especializadas Bases de Datos Especializadas BASES DE DATOS ESPECIALIZADAS 1 Sesión No.4 Nombre: Bases de Datos Distribuidas Objetivo : Al término de la sesión, el alumno identificará elementos de las bases de datos

Más detalles

Concurrencia y Paralelismo

Concurrencia y Paralelismo Concurrencia y Paralelismo Carrera: Ingeniería en Computación Profesor Responsable: Naiouf, Ricardo Marcelo Año: 4º Duración: Semestral Carga Horaria Semanal: 6hs Carga Horaria Total: 96hs Objetivos Generales

Más detalles

Granularidad y latencia

Granularidad y latencia Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación

Más detalles

Implementación y Evaluación del algoritmo de sincronización RBS para redes inalámbricas de sensores

Implementación y Evaluación del algoritmo de sincronización RBS para redes inalámbricas de sensores PROYECTO DE TESIS DE MAESTRÍA EN INGENÍERIA DE TELECOMUNICACIONES Implementación y Evaluación del algoritmo de sincronización RBS para redes inalámbricas de sensores Alumno: Seyed Mohammad Pakdaman Tutor:

Más detalles

CDI Arquitecturas que soportan la concurrencia. granularidad

CDI Arquitecturas que soportan la concurrencia. granularidad granularidad Se suele distinguir concurrencia de grano fino es decir, se aprovecha de la ejecución de operaciones concurrentes a nivel del procesador (hardware) a grano grueso es decir, se aprovecha de

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

Guía docente de la asignatura Computación Paralela

Guía docente de la asignatura Computación Paralela Guía docente de la asignatura Computación Paralela Asignatura Materia Módulo Titulación COMPUTACION PARALELA COMPUTACION TECNOLOGIAS ESPECIFICAS GRADO EN INGENIERÍA INFORMÁTICA Plan 545 Código 46929 Periodo

Más detalles

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo

Más detalles

Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo

Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo 1/41 Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo Jorge González-Domínguez*, Guillermo L. Taboada, Basilio B. Fraguela, María J. Martín, Juan Touriño

Más detalles

Programación híbrida en clusters de multicore. Análisis del impacto de la jerarquía de memoria.

Programación híbrida en clusters de multicore. Análisis del impacto de la jerarquía de memoria. Programación híbrida en clusters de multicore. Análisis del impacto de la jerarquía de memoria. Fabiana Leibovich 1, Franco Chichizola 1, Laura De Giusti 1, Marcelo Naiouf 1, Francisco Tirado Fernández

Más detalles

Arquitecturas Híbridas o Heterogéneas

Arquitecturas Híbridas o Heterogéneas Arquitecturas Híbridas o Heterogéneas Paralelo entre NVIDIA CUDA y Parallel Studio XE para Intel Xeon Phi Laura Marcela Ramírez Patiño 2130064 Lenin Eduardo Guerrero Hernández 2092028 Universidad Industrial

Más detalles

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

I.T.S.C.S. Instituto tecnológico superior compu sur SYLLABUS DE ARQUITECTURA I REF: ARQUITECTURA DE HARDWARE

I.T.S.C.S. Instituto tecnológico superior compu sur SYLLABUS DE ARQUITECTURA I REF: ARQUITECTURA DE HARDWARE I.T.S.C.S. Instituto tecnológico superior compu sur SYLLABUS DE ARQUITECTURA I REF: ARQUITECTURA DE HARDWARE 1. FICHA TÉCNICA. 1.1. Nombre de la Carrera TECNOLOGIA ANALISIS DE SISTEMAS 1.2. Nombre de la

Más detalles

PAP - Programación y Arquitecturas Paralelas

PAP - Programación y Arquitecturas Paralelas Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA

Más detalles

Requisitos Técnicos de actualización de Cluster Heterogéneo

Requisitos Técnicos de actualización de Cluster Heterogéneo PLIEGO DE PRESCRIPCIONES TÉCNICAS PARA LA CONTRATACIÓN, POR PROCEDIMIENTO NEGOCIADO CON PUBLICIDAD, DEL SUMINISTRO DE AMPLIACIÓN DEL SISTEMA DE SUPERCOMPUTACIÓN HETEROGÉNEO QUE ADQUIRIÓ EL BSC-CNS EN EL

Más detalles

Facultad de Ingeniería Industrial y de Sistemas v1.0 MA781U PROCESOS DISTRIBUIDOS

Facultad de Ingeniería Industrial y de Sistemas v1.0 MA781U PROCESOS DISTRIBUIDOS PROCESOS DISTRIBUIDOS Preparado por: Angel Chata Tintaya (angelchata@hotmail.com) Resumen El proceso cliente servidor es la clave para comprender el potencial de los sistemas de información y las redes

Más detalles

PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela

PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela PROGRAMACIÓN PARALELA Modelos de programación paralela Paradigmas de programación paralela Tipos de paralelismo Paso de mensajes Paralelismo de datos Memoria compartida Paradigmas de programación paralela

Más detalles

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez

Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) I Presentación: Instructor M. en C. Cristhian Alejandro Ávila-Sánchez CUDA (Compute Unified Device Architecture)

Más detalles

SISTEMAS PARALELOS UNIVERSIDAD NACIONAL DE LA PLATA FACULTAD DE INFORMÁTICA

SISTEMAS PARALELOS UNIVERSIDAD NACIONAL DE LA PLATA FACULTAD DE INFORMÁTICA SISTEMAS PARALELOS Año 2017 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas Plan 2003-07/Plan

Más detalles

INFORME MEMORIA CACHE Y MEMORIA VIRTUAL.

INFORME MEMORIA CACHE Y MEMORIA VIRTUAL. AIEP PROGRAMACIÓN COMPUTACIONAL FUNDAMENTOS DE PROGRAMACIÓN INFORME MEMORIA CACHE Y MEMORIA VIRTUAL. Por:Diego Menéndez Introducción. Ante la inmensa velocidad de los procesadores que a medida del tiempo

Más detalles

Arquitectura de Hardware Heterogénea para la Ejecución de Algoritmos de Visión Computacional en Tiempo Real Mediante el uso de FPGA, GPU y CPU.

Arquitectura de Hardware Heterogénea para la Ejecución de Algoritmos de Visión Computacional en Tiempo Real Mediante el uso de FPGA, GPU y CPU. Arquitectura de Hardware Heterogénea para la Ejecución de Algoritmos de Visión Computacional en Tiempo Real Mediante el uso de FPGA, GPU y CPU. Director de la Tesis: Jesús Savage Carmona. Presenta: Ramón

Más detalles

Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas

Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Arquitectura de Computadores Curso 2009-2010 Transparencia: 2 / 21 Índice Introducción Taxonomía de Flynn

Más detalles

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.

Más detalles

Introducción a la Programación Paralela

Introducción a la Programación Paralela Proyecto Universidad-Secundaria Incorporación de contenidos de programación paralela en la rama de tecnologías informáticas Facultad Informática, Universidad de Murcia e Instituto de Enseñanza Secundaria

Más detalles

Un importante problema para sistemas de la nueva generación

Un importante problema para sistemas de la nueva generación Un importante problema para sistemas de la nueva generación J. A. Stankovic, Misconceptions about Real-Time Computing: A Serious Problem for Next Generation Systems, IEEE Computer, October 1988. Manifestar

Más detalles

Desarrollo e Implementación de Modelos de Supercomputación

Desarrollo e Implementación de Modelos de Supercomputación Desarrollo e Implementación de Modelos de Supercomputación Erika López Directora del Centro de Tecnología de la Información y las Comunicaciones Universidad Don Bosco, El Salvador Erika.lopez@udb.edu.sv

Más detalles

REPORTAJE ESPECIAL Aspectos del hardware a tomar en cuenta para las instalaciones de SAP HANA

REPORTAJE ESPECIAL Aspectos del hardware a tomar en cuenta para las instalaciones de SAP HANA Aspectos del hardware a tomar en cuenta para las instalaciones de SAP HANA SAP HANA es una tecnología relativamente joven, y los primeros en adoptarla han aprendido lecciones valiosas para asegurar su

Más detalles

Introduccion a Sistemas Operativos. Ej: Linux

Introduccion a Sistemas Operativos. Ej: Linux Universidad Nacional de Ingeniería Facultad de Ciencias Física Computacional CC063 Introduccion a Sistemas Operativos. Ej: Linux Prof: J. Solano 2012-I Resumen Qué hacen los sistemas operativos? Organización

Más detalles

Introducción a los Sistemas Multiprocesadores

Introducción a los Sistemas Multiprocesadores Introducción a los Sistemas Multiprocesadores Multiprocesadores estilo Von Neumann Modelos de Organización Modelos de Programación Clasificación de los Multiprocesadores Por qué Sistemas Multiprocesadores?

Más detalles

BASES DE DATOS DISTRIBUIDAS

BASES DE DATOS DISTRIBUIDAS BASES DE DATOS DISTRIBUIDAS Una Base de Datos Distribuida entonces es una colección de datos que pertenecen lógicamente a un sólo sistema, pero se encuentra físicamente esparcido en varios "sitios" de

Más detalles

APLICACIONES MÓVILES NATIVAS

APLICACIONES MÓVILES NATIVAS APLICACIONES MÓVILES NATIVAS APLICACIONES MÓVILES NATIVAS 1 Sesión No. 7 Nombre: Repaso básico al lenguaje java Objetivo: Al finalizar la sesión el alumno comprenderá los conceptos básicos para el desarrollo

Más detalles

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE Computación de Alta Performance Curso 2009 Objetivos: Estimación de desempeño de algoritmos paralelos. Comparación con algoritmos seriales. Factores intuitivos para evaluar la performance: Tiempo de ejecución.

Más detalles

MULTIPROCESADORES TIPOS DE PARALELISMO

MULTIPROCESADORES TIPOS DE PARALELISMO Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público

Más detalles

Cómputo de Alto Rendimiento: Oportunidades para el Instituto de Ingeniería

Cómputo de Alto Rendimiento: Oportunidades para el Instituto de Ingeniería Cómputo de Alto Rendimiento: Oportunidades para el Instituto de Ingeniería José Luis Gordillo Ruiz jlgr@super.unam.mx utónoma de México 28 de febrero de 2012 Contenido 1 Para qué sirve el supercómputo

Más detalles

SD Examen 2 EVA. 1 of 11 2/5/2013 8:49 PM. Paralelo 1? Evaluaciones? SD Examen 2 EVA. Comenzado: Feb 5 en 8:50pm

SD Examen 2 EVA. 1 of 11 2/5/2013 8:49 PM. Paralelo 1? Evaluaciones? SD Examen 2 EVA. Comenzado: Feb 5 en 8:50pm Paralelo 1? Evaluaciones? SD Examen 2 EVA SD Examen 2 EVA Comenzado: Feb 5 en 8:50pm Question 1: 1 puntos Los [ Seleccionar ] son la union logica de multiples equipos informaticos que funcionan como uno.

Más detalles

Computación 1. Roles en la interconexión

Computación 1. Roles en la interconexión Computación 1 Roles en la interconexión Contenido Roles en la Interconexión Host y Terminales Servidores y Clientes Arquitectura Cliente-Servidor Servidor y Cliente son programas Protocolo de Servicio

Más detalles

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT

PROGRAMA DE CURSO. Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT PROGRAMA DE CURSO Código Nombre CC7515 Computación en GPU Nombre en Inglés Gpu Computing SCT Unidades Horas de Horas Docencia Horas de Trabajo Docentes Cátedra Auxiliar Personal 6 10 3 0 7 Requisitos Carácter

Más detalles

Cómputo Paralelo y Multicore en el Seno de las Tecnologías de la Información. Dr. Victor M. Larios Rosillo

Cómputo Paralelo y Multicore en el Seno de las Tecnologías de la Información. Dr. Victor M. Larios Rosillo Cómputo Paralelo y Multicore en el Seno de las Tecnologías de la Información Dr. Victor M. Larios Rosillo vmlarios@cucea.udg.mx Plan Perspectiva de TI Orientación Motivaciones Doctorado Proyectos Caso

Más detalles

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA G650 - Organización de Computadores Grado en Ingeniería Informática Curso Académico 2015-2016 1. DATOS IDENTIFICATIVOS Título/s Grado en Ingeniería Informática Tipología

Más detalles

Generaciones de las Computadoras

Generaciones de las Computadoras Generaciones de las Computadoras Primera generación (1940-1954) Época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede

Más detalles