Procesamiento Paralelo de Aplicaciones Numéricas de Alto Rendimiento
|
|
- Julio Ferreyra Aranda
- hace 5 años
- Vistas:
Transcripción
1 Procesamiento Paralelo de Aplicaciones Numéricas de Alto Rendimiento Fernando Tinetti, Armando De Giusti, Fernando Romero, Diego Encinas, Emmanuel Frati Instituto de Investigación en Informática LIDI (III-LIDI) Facultad de Informática UNLP {ftinetti, degiusti, fromero, CONTEXTO Esta línea de Investigación está dentro del proyecto Arquitecturas Multiprocesador Distribuidas. Modelos, Software de Base y Aplicaciones acreditado por el Ministerio de Educación y de proyectos específicos apoyados por organismos nacionales e internacionales, En el tema hay cooperación con varias Universidades de Argentina y se está trabajando con Universidades iberoamericanas con apoyo de CyTED y AECID. Se participa en iniciativas como LAGrid y EELA2 y se tiene financiamiento de la Fundación YPF, de Telefónica de Argentina e IBM. Por último a partir del año 2009, los temas del proyecto están incluidos en el programa Pablo Neruda de intercambio de Profesores y Alumnos de Doctorado entre Universidades de América Latina y Europa. RESUMEN El foco de la investigación se centra en temas específicos de procesamiento paralelo, orientados a la resolución de aplicaciones numéricas de alto rendimiento. Naturalmente, se deben tener en cuenta por un lado las aplicaciones con todas sus características, como la de dependencias de datos y el hardware de procesamiento con las suyas, como la memoria distribuida. El objetivo final siempre es el de optimización de rendimiento. Estos temas abarcan el desarrollo de patrones de resolución de clases de algoritmos paralelos, la utilización y eventual actualización de una biblioteca de sincronización de relojes distribuidos ya implementada y la transformación y optimización de los algoritmos paralelos de álgebra lineal sobre clusters, considerando la tecnología de procesadores de múltiples núcleos (multicores) que emerge actualmente. Desarrollar software de base para clusters de multicores, tratando de optimizar el uso del hardware disponible en las arquitecturas, suponiendo diferentes modelos de programación paralela y diferentes esquemas o paradigmas de resolución de aplicaciones. Keywords: Sistemas Paralelos. Paradigmas de programación paralela. Multicores. Cluster, Multicluster, Grid y Cloud Computing. Modelos y predicción de performance. Scheduling. Virtualización. Aplicaciones. 1. INTRODUCCION Numerosas áreas científicas y de la industria requieren la utilización de paralelismo para la resolución de aplicaciones de cómputo intensivo. Entre ellas pueden citarse simulaciones, modelización, optimización discreta, análisis molecular, búsquedas en árboles, aprendizaje en redes neuronales, tratamiento de imágenes, reconocimiento de patrones, procesamiento de consultas en BD, etc. A esta situación conocida, se le ha sumado en los últimos años el cambio tecnológico que significa la evolución hacia procesado- 606
2 res de múltiples núcleos. Esta tendencia de la industria (impuesta por el consumo de energía y la disipación de calor) produce un nuevo modelo de arquitectura de base, donde coexisten la memoria compartida y la memoria distribuida obligando, en cierta forma, a evaluar el procesamiento Paralelo (algoritmos, lenguajes, sistemas operativos y primitivas de sincronización y comunicación). En esta etapa del desarrollo de la industria informática, el paralelismo ha pasado a ser absolutamente prioritario y la máquina de Von Neumann no existe más como modelo real de procesamiento: es necesario concebir un nuevo esquema fundamental, basado en procesadores de múltiples núcleos. Esto significa una potenciación de los esquemas MIMD (Multiple Instruction Multiple Data streams) característicos de las arquitecturas distribuidas y la necesidad de investigar soluciones tecnológicas en todos los niveles de software, que exploten las nuevas arquitecturas. Aunque se han publicado numerosas experiencias específicas de aplicaciones, aún quedan por definir metodologías y el avance en el estudio de factibilidad de bibliotecas optimizadas. Dentro de este estudio, se considera importante definir el alcance y los límites de rendimiento posible para clusters de multicores, donde se deben combinar dos modelos de paralelismo y las redes de interconexión de los nodos del cluster. Aunque las publicaciones se han concentrado en redes de interconexión para cómputo paralelo de alto rendimiento (Myrinet, Infiniband, Quadrics, etc.), se considera importante estudiar las redes de más bajo costo y las posibles optimizaciones para su utilización en clusters, como Gb/s Ethernet y aún la de 10 Gb/s Ethernet, que aún no tiene gran disponibilidad en el mercado pero se espera que tenga una evolución similar a la de Gb/s. En el caso específico de aplicaciones numéricas, hay una gran base instalada de aplicaciones que están en producción y que han quedado obsoletas desde muchos puntos de vista. Específicamente deben ser analizadas desde la perspectiva de cómputo paralelo en multicores y posiblemente también su adaptación para clusters. En todos los casos, se parte de una base relativamente compleja,dado que mucho del software numérico en producción se ha desarrollado sin tener en cuenta muchas de las herramientas y metodologías de ingeniería de software actuales. Y en algunos casos, se ha limitado estrictamente a la implementación directa de métodos computacionales/numéricos para simulaciones físicas/químicas. 2. LINEAS DE INVESTIGACION Y DESARROLLO En términos generales, todas las líneas de investigación y desarrollo se pueden relacionar con al menos una de los temas de investigación relacionados con el procesamiento paralelo de aplicaciones numéricas de alto rendimiento: Aplicaciones con características de requerimientos de alto rendimiento. Caracterización de procesamiento en cuanto a identificación de requerimientos y dependencias de datos en los cálculos. Procesamiento numérico: características de las arquitecturas de procesamiento. Procesamiento paralelo: cómputo en MIMD de memoria compartida y en MIMD de memoria distribuida. Modelos de comunicación y sincronización. Más específicamente, las líneas de investigación y desarrollo que se pueden identificar son: Arquitectura de procesadores multicore. Software de base. Multhreading sobre multicore Clusters de multicores: arquitectura de los nodos y de la red de interconexión. Modelos de predicción de rendimiento para arquitecturas híbridas (con memoria compartida y memo- 607
3 ria distribuida). Aplicación a clusters de multicores. Patrones de resolución paralela de problemas sobre clusters de multicores. Paradigmas, Modelos de comunicación y sincronización y Lenguajes para programación paralela. Análisis de rendimiento utilizando relojes distribuidos. Alcance de la precisión y exactitud. Métricas de eficiencia en algoritmos paralelos sobre multicores, y clusters de multicores. Análisis de complejidad en algoritmos numéricos paralelos (en particular de álgebra lineal), considerando procesadores de múltiples núcleos (potencialmente heterogéneos). Caracterización de rendimiento de cómputo y de comunicaciones en clusters. Optimización y/o desarrollo de rutinas y/o bibliotecas de comunicación específicamente optimizadas para clusters de multicores. Identificación de patrones de cómputo y comunicación que optimizan el cómputo paralelo. Aplicación de los patrones de programación paralela para los problemas de álgebra lineal. Mantenimiento y optimización de una biblioteca de Algebra Lineal Paralela sobre clusters de procesadores de múltiples núcleos. 3. RESULTADOS OBTENIDOS /ESPERADOS Algunos de los resultados de las líneas de investigación enumeradas anteriormente son orientados a definir una metodología o conceptos importantes para el desarrollo de programas paralelos o la optimización de rendimiento. Otros, sin embargo, están orientados a software bien definido como bibliotecas, tanto de cómputo numérico en paralelo como de comunicaciones. En todos los casos, explícita o implícitamente el objetivo es optimizar el uso de los recursos disponibles en un cluster (posiblemente de nodos multicore) y, por lo tanto, optimizar el rendimiento obtenido para resolver aplicaciones. Algunos de los resultados a los cuales se pretende llegar son: Identificar patrones de resolución de clases de problemas en cómputo paralelo. Mantener y adaptar una biblioteca de sincronización de relojes distribuidos, enfocada a arquitecturas de cluster. Completar el desarrollo, mantener y optimizar una biblioteca de álgebra lineal en paralelo optimizada para cómputo en clusters, adecuando las funciones a los clusters de procesadores de múltiples núcleos. Identificar los problemas de rendimiento del procesamiento paralelo en clusters de nodos multicores y proveer soluciones alternativas. Identificar los problemas de rendimiento de las comunicaciones y su efecto en el rendimiento de los programas paralelos. Identificar la factibilidad de técnicas de optimización como la minimizacón de la latencia y el solapamiento de cómputo con comunicaciones. 4. FORMACION DE RECURSOS HUMANOS En esta línea de I/D existe cooperación a nivel nacional e internacional. Hay 4 Investigadores realizando su Doctorado en Argentina y 1 en el exterior. Asimismo hay 3 Tesistas de Maestría y 2 de Especialista en curso, y 2 alumnos avanzados están trabajando en su Tesina de Grado de Licenciatura. En cooperación con las Universidades miembros del proyecto CyTED Tecnología Grid como motor de desarrollo regio- 608
4 nal se ha implementado una Especialización en Cómputo de Altas Prestaciones y Tecnología Grid que se inició en 2007 en la UNLP con Profesores europeos y de las 4 Universidades vinculadas al proyecto. En 2009 se ha iniciado la Maestría en Cómputo de Altas Prestaciones con alumnos de diferentes Universidades del país y del exterior. 5. BIBLIOGRAFIA 1. Baiardi, S. Chiti, P. Mori, L. Ricci. "Integrating Load Balancing and Locality in the Parallelization of Irregular Problems", Future Generation Computer Systems, Elsevier Science B.V., Vol 17, 2001, pp Burger, T. W., Intel Multi-Core Processors: Quick Reference Guide. 19/231912_ pdf 3. Chai, L., Qi Gao, Dhabaleswar K. Panda. Understanding the Impact of Multi-Core Architecture in Cluster Computing: A Case Study with Intel Dual-Core System. IEEE International Symposium on Cluster Computing and the Grid 2007 (CCGRID 2007), pp (May 2007). 4. Dongarra J, Foster I, Fox G, Gropp W, Kennedy K, Torczon L, White A. The Sourcebook of Parallel Computing. Morgan Kauffman Publishers. Elsevier Science, Grama A, Gupta A, Karypis G, Kumar V. Introduction to parallel computing. Second Edition. Pearson Addison Wesley, Jordan H, Alaghband G. Fundamentals of parallel computing. Prentice Hall, Kurmann D, F. Rauch, M. Stricker. "Cost/ Performance Tradeoffs in Network Interconnects for Clusters of Commodity PCs". Technical Report 391, Swiss Federal Institute of Technology Zurich, Institute for Computer Systems, January Mattson T., B. Sanders, B. Massingill. Patterns for Parallel Programming. Addison Wesley Professional, Mc. Cool, M., Programming models for scalable multicore programming ml, Olszewski, M., Jason Ansel, Saman Amarasinghe. Kendo: Efficient Determistic Multithreading in Software. Architectural Support for Programming Languages and Operating Systems (AS- PLOS 09) 11.Siddha, S., Venkatesh Pallipadi, Asit Mallick. Process Scheduling Challenges in the Era of Multicore Processors Intel Technology Journal, Vol. 11, Issue 04, November Snir, M.. Parallel programming patterns Tinetti F, Romero F, De Giusti A Clock Synchronization in Clusters for Performance Evaluation: Numeric/ Scientific Computing. Proceedings CSIE Los Ángeles, USA. IEEE Computer Society Order Number 3507 Vol 2, pp Tinetti F., López M., Cajaraville P., Rodrigues D., "Fortran Legacy Code Performance Optimization: Sequential and Parallel Processing with OpenMP", 2009 World Congress on Computer Science and Information Engineering, IEEE Computer Society, March 31 - April 2, 2009, Los Angeles/Anaheim, USA, ISBN /08, pp Tinetti F, Wolfmann G, "Análisis de Paralelización con Memoria Compartida y Memoria Distribuida en Clusters de Nodos con Múltiples Núcleos", Workshop de Procesamiento Distribuido y Paralelo (WPDP), XIV Congreso Argentino de Ciencias de la Computación, Chilecito, Argentina, ISBN: , 6-10 Octubre de
5 16.Parallel Linear Algebra for Scalable Multi-core Architectures (PLASMA) project. University of Tennessee. edu/plasma/ 610
SISTEMAS PARALELOS UNIVERSIDAD NACIONAL DE LA PLATA FACULTAD DE INFORMÁTICA
SISTEMAS PARALELOS Año 2017 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas Plan 2003-07/Plan
SISTEMAS PARALELOS PROGRAMA ANALÍTICO. Unidad 1: Conceptos básicos Paralelismo. Objetivos del procesamiento paralelo.
SISTEMAS PARALELOS Año 2018 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas Plan 2003-07/Plan
Laboratorio de Procesamiento Paralelo Multi-Cluster accesible vía WEB
Laboratorio de Procesamiento Paralelo Multi-Cluster accesible vía WEB Adrián Pousa, Armando E. De Giusti, Marcelo Naiouf Instituto de Investigación en Informática LIDI Facultad de Informática Universidad
Procesamiento paralelo y distribuido. Fundamentos y aplicaciones.
Procesamiento paralelo y distribuido. Fundamentos y aplicaciones. R. Marcelo Naiouf, Armando E. De Giusti, Laura C. De Giusti, Franco Chichizola Instituto de Investigación en Informática LIDI (III-LIDI)
Año: 4. Carácter: Obligatoria (LI) Optativa (LS) Hs. semanales: 6 hs.
SISTEMAS PARALELOS Carrera/ Plan: Licenciatura en Informática Plan 2003/2007/2012/2015 Licenciatura en Sistemas Plan 2003/2007/2012/2015 Año: 4 Año 2015 Régimen de Cursada: Semestral Carácter: Obligatoria
Comparación de modelos de comunicación/sincronización en Programación Paralela sobre Cluster de Multicores.
Comparación de modelos de comunicación/sincronización en Programación Paralela sobre Cluster de Multicores. Rucci Enzo, De Giusti Armando E., Chichizola Franco, Naiouf R. Marcelo, De Giusti Laura C. Instituto
Aplicaciones Científicas Numéricas: El (Ciclo de Vida del) Software Heredado
WICC 2012 523 Aplicaciones Científicas Numéricas: El (Ciclo de Vida del) Software Heredado Mariano Méndez, Fernando G. Tinetti 1 Instituto de Investigación en Informática LIDI (III-LIDI) Facultad de Informática
Programación Paralela
Programación Paralela 4º Grado Ing. Informática Depto. de Lenguajes y Sistemas Informáticos Universidad de Granada Datos de la Asignatura PÁGINAS WEB: Web de material docente: http://lsi.ugr.es/~jmantas/ppr/
Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio.
Comparación de paradigmas de programación paralela en cluster de multicores: Pasaje de mensajes e híbrido. Un caso de estudio. Fabiana Leibovich, Silvana Gallo, Laura De Giusti, Franco Chichizola, Marcelo
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES
COMPARACIÓN DE MODELOS DE SINCRONIZACIÓN EN PROGRAMACIÓN PARALELA SOBRE CLUSTER DE MULTICORES Autor: A.P.U. Enzo Rucci Director: Ing. Armando E. De Giusti Co-Director: Lic. Franco Chichizola Tesina de
PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:
PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de
Programación híbrida en clusters de multicore. Análisis del impacto de la jerarquía de memoria.
Programación híbrida en clusters de multicore. Análisis del impacto de la jerarquía de memoria. Fabiana Leibovich 1, Franco Chichizola 1, Laura De Giusti 1, Marcelo Naiouf 1, Francisco Tirado Fernández
Nociones básicas de computación paralela
Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad
Fundamentos y Aplicaciones de Procesamiento Distribuido y Paralelo
Fundamentos y Aplicaciones de Procesamiento Distribuido y Paralelo Marcelo Naiouf, Armando E. De Giusti, Laura C. De Giusti, Franco Chichizola, Adrian Pousa, Waldo Hasperué, Victoria Sanz, Fabiana Leibovich
COMPUTACIÓN DE ALTA PERFORMANCE
COMPUTACIÓN DE ALTA PERFORMANCE Curso 2010 Sergio Nesmachnow (sergion@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy) Grupo de Procesamiento Paralelo Aplicado Centro de Cálculo COMPUTACIÓN DE ALTA PERFORMANCE
Análisis de soluciones paralelas puras e híbridas en un problema de simulación.
Análisis de soluciones paralelas puras e híbridas en un problema de simulación. Silvana Lis Gallo 1,2, Franco Chichizola 1, Laura De Giusti 1, Marcelo Naiouf 1 1 Instituto de Investigación en Informática
Grado en Ingeniería Informática
Grado en Ingeniería Informática CENTRO RESPONSABLE: FACULTAD DE CIENCIAS RAMA: Ingeniería y Arquitectura CRÉDITOS: 240,00 DISTRIBUCIÓN DE CRÉDITOS DE LA TITULACIÓN FORMACIÓN BÁSICA: 72,00 OBLIGATORIOS:
PAP - Programación y Arquitecturas Paralelas
Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA
Plan 95 Adecuado DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS / AÑO: 64 HS.
Plan 95 Adecuado ASIGNATURA: COMPUTACIÓN PARALELA CON PROCESADORES GRÁFICOS CODIGO: 95-0409 DEPARTAMENTO: ELECTRÓNICA CLASE: ELECTIVA DE ESPECIALIDAD ÁREA: TÉCNICAS DIGITALES HORAS SEM.: 4 HS. HORAS /
Arquitecturas de Computadoras II
Programa de la Asignatura: Arquitecturas de Computadoras II Código: 26 Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Segundo
Cómputo Paralelo en Redes Locales de Computadoras
Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor
TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)
Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua
Universidad Nacional de Luján República Argentina Ruta 5 y Av. Constitución C.C LUJÁN (Bs. As.)
Universidad Nacional de Luján República Argentina ------ Ruta 5 y Av. Constitución C.C. 221-6700 LUJÁN (Bs. As.) Nº DISPOSICIÓN:... DEPARTAMENTO DE: Ciencias Básicas CARRERA/S: Licenciatura en Sistemas
INFORME Científico-tecnológico
provincia de buenos aires comisión de investigaciones científicas Calle 526 e/ 10 y 11 1900 La Plata Tel. Fax: (0221) 421 7374 / 6205 int.143 D.E.: perapoyo@cic.gba.gov.ar PERSONAL DE APOYO A LA INVESTIGACION
Arquitecturas de Altas Prestaciones y Supercomputación
Arquitecturas de Altas Prestaciones y Supercomputación Presentación del itinerario Julio de 2014 Arquitecturas de Altas Prestaciones y Supercomputación Julio de 2014 1 / 15 Agenda Introducción 1 Introducción
AC2 - Arquitectura de Computadores II
Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA
Guía docente de la asignatura
Guía docente de la asignatura Asignatura Materia Módulo Titulación Plan Periodo de impartición INFRAESTRUCTURA PARA EL BIG DATA TECNOLOGÍAS INFORMÁTICAS PARA EL BIG DATA (vacío) MASTER UNIVERSITARIO EN
Concurrencia y Paralelismo en el primer curso de Algorítmica?
Concurrencia y Paralelismo en el primer curso de Algorítmica? Armando De Giusti, Fernando Emmanuel Frati Instituto de Investigación en Informática III-LIDI. Facultad de Informática {degiusti, fefrati}@lidi.info.unlp.edu.ar
PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Introducción a la concurrencia
CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Introducción a la concurrencia 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Facultad: Departamento/Instituto:
COMPUTACIÓN. Redes de Computadores y Computación Distribuida. UNIVERSIDADES DESDE LA QUE SE IMPARTE: Universidad de Santiago de Compostela
COMPUTACIÓN Redes de Computadores y Computación Distribuida UNIVERSIDADES DESDE LA QUE SE IMPARTE: Universidad de Santiago de Compostela CRÉDITOS: 3 créditos ECTS PROFESOR/A COORDINADOR/A: Jesús María
Concurrencia y Paralelismo
Concurrencia y Paralelismo Carrera: Ingeniería en Computación Profesor Responsable: Naiouf, Ricardo Marcelo Año: 4º Duración: Semestral Carga Horaria Semanal: 6hs Carga Horaria Total: 96hs Objetivos Generales
Procesamiento Paralelo
Procesamiento Paralelo Modelado analítico de programas paralelos Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
HPC: Aplicaciones y Software
HPC: Aplicaciones y Software Heredado HPC: Aplicaciones y Software Fernando G. Tinetti III-LIDI, Fac. de Informática, UNLP Comisión de Inv. Científicas, Bs. As. fernando@info.unlp.edu.ar Aplicaciones y
Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2015/2016 Tercer curso Primer cuatrimestre
ARQUITECTURA E INGENIERÍA DE COMPUTADORES Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2015/2016 Tercer curso Primer cuatrimestre GUÍA DOCENTE Nombre de la asignatura: Arquitectura
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS
CÓMPUTO DE ALTO RENDIMIENTO EN MEMORIA COMPARTIDA Y PROCESADORES GRÁFICOS Leopoldo N. Gaxiola, Juan J. Tapia Centro de Investigación y Desarrollo de Tecnología Digital Instituto Politécnico Nacional Avenida
UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI
UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SUPERCÓMPUTO FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC ( ) APOBL
Entornos de programación paralela basados en modelos/paradigmas
Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA)
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS (Universidad del Perú, DECANA DE AMÉRICA) FACULTAD DE INGENIERIA DE SISTEMAS E INFORMATICA ESCUELA PROFESIONAL DE INGENIERÍA DE SISTEMAS 1. INFORMACIÓN GENERAL
Fecha de elaboración: Agosto de 2004 Fecha de última actualización: Julio de 2010
PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en ciencias computacionales Integral profesional Programa elaborado por: Programación Concurrente Horas teóricas: 1 Horas prácticas:
Granularidad y latencia
Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación
UNIVERSIDAD NACIONAL DE INGENIERIA FACULTAD DE ELECTROTECNIA Y COMPUTACION DEPARTAMENTO DE ARQUITECTURA Y SISTEMAS
UNIVERSIDAD NACIONAL DE INGENIERIA FACULTAD DE ELECTROTECNIA Y COMPUTACION DEPARTAMENTO DE ARQUITECTURA Y SISTEMAS PLAN TEMATICO DE ARQUITECTURA DE MAQUINAS COMPUTADORAS III OBJETIVOS General: Obtener
Guía docente de la asignatura
Guía docente de la asignatura Asignatura Materia Módulo Titulación COMPUTACIÓN PARALELA Y MODELOS EMERGENTES SISTEMAS Y SERVICIOS EMPOTRADOS, UBICUOS Y DE ALTAS PRESTACIONES (vacío) MASTER EN INGENIERÍA
ANX-PR/CL/ GUÍA DE APRENDIZAJE. ASIGNATURA Computacion de alto rendimiento. CURSO ACADÉMICO - SEMESTRE Segundo semestre
ANX-PR/CL/001-02 GUÍA DE APRENDIZAJE ASIGNATURA Computacion de alto rendimiento CURSO ACADÉMICO - SEMESTRE 2014-15 - Segundo semestre FECHA DE PUBLICACIÓN Enero - 2015 GA_10II_105000063_2S_2014-15 Datos
PACO-I5O01 - Paralelismo y Concurrencia
Unidad responsable: 340 - EPSEVG - Escuela Politécnica Superior de Ingeniería de Vilanova i la Geltrú Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2017
Cluster de microprocesadores RISC para problemas de agricultura de precisión
Cluster de microprocesadores RISC para problemas de agricultura de precisión Horacio Martinez del Pezzo, Fernando Emmanuel Frati, Emmanuel Robador, Cristian Rios Departamento de Ciencias Básicas y Tecnológicas,
Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD)
Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD) Centro de Investigación y de Estudios Avanzados Universidad Autónoma Metropolitana Universidad Nacional Autónoma de México Grid Computing Centre
Entorno para el acceso remoto vía web a laboratorios multicluster
Entorno para el acceso remoto vía web a laboratorios multicluster Adrián Pousa 1, Armando De Giusti 2, Marcelo Naiouf 3 {apousa, degiusti, mnaiouf}@lidi.info.unlp.edu.ar Instituto de Investigación en Informática
Redes de Microcontroladores: Definición, Evaluación y Perspectivas de un Sistema Distribuido
Redes de es: Definición, Evaluación y Perspectivas de un Sistema Distribuido Fernando G. Tinetti 1, Ricardo A. López Departamento de Informática Sede Trelew, Facultad de Ingeniería - UNPSJB III-LIDI, Facultad
Metodología de Sincronización de Relojes para Instrumentación
Metodología de Sincronización de Relojes para Instrumentación Fernando L. Romero, Fernando G. Tinetti 1 Instituto de Investigación en Informática LIDI (III-LIDI) Facultad de Informática UNLP fromero@lidi.info.unlp.edu.ar,
Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) Instructor M. en C. Cristhian Alejandro Ávila-Sánchez
Introducción a la Arquitectura y Plataforma de Programación de Cómputo Paralelo CUDA (36 hrs) I Presentación: Instructor M. en C. Cristhian Alejandro Ávila-Sánchez CUDA (Compute Unified Device Architecture)
Ingeniería Informática
Grado en Ingeniería Informática Escuela Superior de Ingeniería Avda. de la Universidad de Cádiz, 10 11519 - Puerto Real (Cádiz) 95483200 grado.informatica@uca.es http://esingenieria.uca.es Itinerario Curricular
PROGRAMACIÓN PARALELA
Página 1de 9 GUIA DOCENTE DE LA ASIGNATURA PROGRAMACIÓN PARALELA MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO Complementos de ingeniería del software PROFESOR Grupo de Teoría: Complementos de programación
COMPUTACIÓN DISTRIBUIDA Y APLICACIONES
GUÍA DOCENTE COMPUTACIÓN DISTRIBUIDA Y APLICACIONES Coordinación: CORES PRADO, FERNANDO Año académico 2018-19 Información general de la asignatura Denominación Código 102027 Semestre de impartición Carácter
Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación
Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en
GRADO EN INGENIERIA INFORMATICA
EXAMENES PRIMER SEMESTRE GII 1 FUNDAMENTOS DEONT. Y JURIDICOS DE LAS TIC 1C viernes, 16 de enero de 2015 9:00 51-A1 GII 1 ALGEBRA LINEAL (PRACTICO) 1C martes, 20 de enero de 2015 16:00 Aula Inf. Dpto.
Programa Regular. Asignatura: Organización y Arquitectura de Computadoras.
Programa Regular Asignatura: Organización y Arquitectura de Computadoras. Carrera: Ingeniería en Informática. Ciclo Lectivo: Primer Cuatrimestre 2017 Año en el plan de estudios: 2 Año Coordinador/Profesor:
GRADO EN INGENIERÍA DE COMPUTADORES
GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento
CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR
CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA
III-LIDI Facultad de Informática UNLP La Plata, Argentina 2. CONICET, Argentina
Comparación de rendimiento de algoritmos de cómputo intensivo y de acceso intensivo a memoria sobre arquitecturas multicore. Aplicación al algoritmo de criptografía AES. Adrian Pousa 1, Victoria María
Computación de Altas Prestaciones Sistemas computacionales
Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas
Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2016/2017 Tercer curso Primer cuatrimestre
ARQUITECTURA E INGENIERÍA DE COMPUTADORES Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2016/2017 Tercer curso Primer cuatrimestre GUÍA DOCENTE Nombre de la asignatura: Arquitectura
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción
Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es
Análisis de Paralelización con Memoria Compartida y Memoria Distribuida en Clusters de Nodos con Múltiples Núcleos
Análisis de Paralelización con Memoria Compartida y Memoria Distribuida en Clusters de Nodos con Múltiples Núcleos Fernando G. Tinetti 1 III-LIDI Facultad de Informática, UNLP 50 y 120, 1900, La Plata,
UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI
UNIVERSIDAD DEL VALLE DE MÉXICO PROGRAMA DE ESTUDIO DE LICENCIATURA PRAXIS MES XXI NOMBRE DE LA ASIGNATURA: SISTEMAS OPERATIVOS II FECHA DE ELABORACIÓN: ENERO 2005 ÁREA DEL PLAN DE ESTUDIOS: AS ( ) AC
Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2017/2018 Tercer curso Primer cuatrimestre
Arquitectura e Ingeniería de Computadores Grado en Ingeniería de Computadores Universidad de Alcalá Curso Académico 2017/2018 Tercer curso Primer cuatrimestre GUÍA DOCENTE Nombre de la asignatura: Arquitectura
PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE. Programación Concurrente
CENTRO UNIVERSITARIO DE TECNOLOGÍA Y ARTE DIGITAL PLANIFICACIÓN DE LA DOCENCIA UNIVERSITARIA GUÍA DOCENTE Programación Concurrente 1. DATOS DE IDENTIFICACIÓN DE LA ASIGNATURA. Título: Facultad: Máster
ORGANIZACIÓN DOCENTE del curso
ORGANIZACIÓN DOCENTE del curso 2009-10 1. DATOS GENERALES DE LA ASIGNATURA NOMBRE Ingeniería del Software I PÁGINA WEB www.ctr.unican.es/asignaturas/is1 CÓDIGO DEPARTAMENTO Matemáticas, Estadística y Computación
Máster en Tecnologías de la Información
Máster en Tecnologías de la Información Asignaturas x concentración CONCENTRACIÓN (Módulo) Informática en la Empresa - Grupo I 33 Effective Communication in Professional Environments 4 Estrategias para
Costos del Cómputo Paralelo en Clusters Heterogéneos
Costos del Cómputo Paralelo en Clusters Heterogéneos Fernando G. Tinetti, Antonio A. Quijano fernando@lidi.info.unlp.edu.ar, quijano@ing.unlp.edu.ar Grupo de Investigación en Procesamiento Paralelo Instituto
Trabajo Preliminar para la Obtención de Tiempos Sincronizados en Clusters con Nodos de Múltiples Núcleos
Trabajo Preliminar para la Obtención de Tiempos Sincronizados en Clusters con Nodos de Múltiples Núcleos Fernando Romero, Horacio Villagarcía 1, Fernando G. Tinetti 2 Instituto de Investigación en Informática
Universidad Autónoma de San Luis Potosí Facultad de Ingeniería Programas Analíticos del Área Mecánica y Eléctrica 5727 PROGRAMACION EN PARALELO
A) CURSO Clave Asignatura 5727 PROGRAMACION EN PARALELO Horas de teoría Horas de práctica Horas trabajo Créditos Horas por semana por semana adicional estudiante Totales 3 0 3 6 48 B) DATOS BÁSICOS DEL
3. CONDICIONES DE REGULARIDAD Y APROBACION DE LA ASIGNATURA
INSTITUTO DE DESARROLLO ECONÓMICO E INNOVACIÓN Año: 2017 PROGRAMA DE LA ASIGNATURA: Sistemas Distribuidos (IF022) CÓDIGO: IF022 AÑO DE UBICACIÓN EN EL PLAN DE ESTUDIOS: 4 año FECHA ULTIMA REVISIÓN DE LA
GUÍA DEL CURSO ACADÉMICO ESCUELA UNIVERSITARIA DE INFORMÁTICA UNIVERSIDAD POLITÉCNICA DE MADRID
GUÍA DEL CURSO ACADÉMICO 2010 2011 ESCUELA UNIVERSITARIA DE INFORMÁTICA 1. Plan de estudios en Ingeniería de Computadores página 1 2. Plan de estudios en Ingeniería del Software página 3 1. PLAN DE ESTUDIOS
Algoritmos Paralelos y Distribuidos. Fundamentos, Modelos y Aplicaciones.
WICC 0 783 Algoritmos Paralelos y Distribuidos. Fundamentos, Modelos y Aplicaciones. Marcelo Naiouf, Armando De Giusti, Laura De Giusti, Franco Chichizola, Victoria Sanz, Adrian Pousa, Fabiana Leibovich,
UNIVERSIDAD NACIONAL AUTÓNOMA LICENCIADO EN CIENCIAS DE LA COMPUTACIÓN
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO LICENCIADO EN CIENCIAS DE LA COMPUTACIÓN Programa de la asignatura: Algoritmos Paralelos Clave: Semestre: Campo de conocimiento: Área de Formación: 0xyz Sexto Linea
Programación Gráfica de Altas Prestaciones
rogramación Gráfica de Altas restaciones lataformas de altas prestaciones para Infomática Gráfica. Máster de Desarrollo de Software Depto. de Lenguajes y Sistemas Informáticos lsi.ugr.es/~jmantas/ga 1.
Programación Distribuida y Tiempo Real
Programación Distribuida y Tiempo Real Año 2016 Carrera: Licenciatura en Informática Plan 2015 Año: 3 Duración: Semestral Profesor: Fernando G. Tinetti FUNDAMENTACION: Se presenta el contexto y los conceptos
Ingeniería en computación Tipos de sistemas operativos
Ingeniería en computación Tipos de sistemas operativos Unidad de competencia III: Sistemas Operativos Distribuidos Ing. Diego Armando Ramírez Avelino 17/10/2017 1 Unidad de competencia I Objetivo Entender
Sistemas Distribuidos
Sistemas Distribuidos Carrera: Magister en Redes de Datos Año 2010 Duración: 124 Hs. Profesor a Cargo: Dr. Fernando Tinetti OBJETIVOS GENERALES: Proveer los fundamentos del procesamiento distribuido. Identificar
Ingeniería del Software II
Curso 2009 2010 Departamento: Informática e Ingeniería de Sistemas Area: Lenguajes y Sistemas Informáticos 7,5 cr. 5 h. semana: 4,5 cr. Teoría 3 h. semana 3 cr. Prácticos 1 h. semana problemas 1 h. semana
Arquitecturas de Computadoras
Arquitectura de Computadoras Página 1 de 7 Programa de: Arquitecturas de Computadoras UNIVERSIDAD NACIONAL DE CÓRDOBA Facultad de Ciencias Exactas, Físicas y Naturales República Argentina Código: Carrera:
Año: 4to. Régimen de Cursada: Semestral
CLOUD COMPUTING. APLICACIONES EN BIG DATA Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/ Plan 2012 Licenciatura en Sistemas
MAGMA. Matrix Algebra on GPU and Multicore Architecture. Ginés David Guerrero Hernández
PLASMA GPU MAGMA Rendimiento Trabajo Futuro MAGMA Matrix Algebra on GPU and Multicore Architecture Ginés David Guerrero Hernández gines.guerrero@ditec.um.es Grupo de Arquitecturas y Computación Paralela
Consumo Energético en Arquitecturas Multicore. Análisis sobre un Algoritmo de Criptografía Simétrica.
Consumo Energético en Arquitecturas Multicore. Análisis sobre un Algoritmo de Criptografía Simétrica. Fernando Romero 1, Adrian Pousa 1, Victoria Sanz 1 2, Armando De Giusti 1 3 1 Instituto de Investigacion
Computación de Altas Prestaciones Sistemas computacionales
Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco
Presentación de la Asignatura.
INGENIERÍA DEL SOFTWARE I Tema 0 Presentación de la Asignatura www.ctr.unican.es/asignaturas/is1/ Profesorado Michael González Harbour (teoría, responsable asignatura) E-mail: mgh@unican.es Web: http://www.ctr.unican.es/
Programación Distribuida y Tiempo Real
Programación Distribuida y Tiempo Real Año 2018 Carrera: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas (Optativa) Año: 3 Duración: Semestral Profesor: Fernando G. Tinetti Hs semanales:
Sistemas de Tiempo Real
Sistemas de Tiempo Real Carrera: Ingeniería en Computación Profesor Responsable: Romero, Fernando Año: 4º Duración: Semestral Carga Horaria Semanal: 6hs Carga Horaria Total: 96hs Objetivos Generales Caracterizar
TABLA DE EQUIVALENCIAS DE ASIGNATURAS PLAN DE ESTUDIOS PROPUESTO PLAN DE ESTUDIOS
6500 FACULTAD DE INGENIERÍA Y ARQUITECTURA CARRERA DE INGENIERÍA DE SISTEMAS TABLA DE EQUIVALENCIAS DE ASIGNATURAS PLAN DE ESTUDIOS PROPUESTO 2018-1 PLAN DE ESTUDIOS 2017-1 PRIMER NIVEL 5111 6506 LENGUAJE
MÓDULO MATERIA CURSO SEMESTRE CRÉDITOS TIPO BREVE DESCRIPCIÓN DE CONTENIDOS (SEGÚN MEMORIA DE VERIFICACIÓN DEL GRADO)
GUIA DOCENTE DE LA ASIGNATURA ARQUITECTURAS Y COMPUTACIÓN DE ALTAS PRESTACIONES Curso 2018 2019 (Fecha última actualización: 15/05/2018) (Fecha de aprobación en el Consejo de Departamento: 17/05/2018)
Sincronización de Relojes en Ambientes Distribuidos
Sincronización de Relojes en Ambientes Distribuidos Fernando L. Romero, Fernando G. Tinetti 1 Instituto de Investigación en Informática LIDI (III-LIDI) Facultad de Informática UNLP fromero@lidi.info.unlp.edu.ar,