Factores de Rendimiento en Entornos Multicore
|
|
- Hugo Sáez Cuenca
- hace 6 años
- Vistas:
Transcripción
1 Factores de Rendimiento en Entornos Multicore César Allande Álvarez Computer Architecture & Operating Systems Department (CAOS) Barcelona, Spain Director: Eduardo César Galobardes 14 de julio de 2010
2 Índice Introducción Objetivos Desarrollo del Estudio Análisis y Experimentación Conclusiones Trabajo actual y Líneas abiertas
3 Introducción Qué? Integración de sistemas multicore en HPC Por qué? Mejora deeficiencia eficiencia, rendimiento y consumo Cómo? Sintonizando aplicaciones paralelas Teniendo en cuenta el modelo de programación Teniendo en cuenta la arquitectura Considerando el patrón de comportamiento de la aplicación
4 Introducción Multicore en HPC? Multicore está implantado en HPC 3% 0% 1% 1% 4% Top 500 Supercomputers June 2010 Number of Cores per processor 46% 45% single core dual / 2 core 4 core 6 core 8 cores 9 cores (8+1) 12 cores
5 Introducción Ley de Moore La potencia de los ordenadores se duplica cada dos años, reduciendo además su coste. Ley de Amdahl Ley de Gustafson El incremento de velocidad de un programa utilizando múltiples procesadores en computación distribuida está limitadai por la fracción secuencial ildl del programa Cualquier problema suficientemente grande puede ser eficientemente paralelizado Kill Rule Se debe incrementar el tamaño del recurso solamente si por cada 1% de aumento del área se obtiene al menos un 1% de mejora de rendimiento del core
6 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore vs. Manycore Homogénea / Heterogénea Interconexión Comunicación Topología Acceso a Memoria compartida Sección Crítica Transaccional Modelos de programación Paralelismo de datos Paralelismo funcional
7 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore Arquitectura vs. Manycore Homogénea / Heterogénea Interconexión Escalabilidad Comunicación cores + complejos (multicore) + cores complejos lj (manycore) Topología Acceso Tipos a Memoria de cores compartida (funcionalidad) Sección Homogéneos Crítica Transaccional Intel Core Modelos Heterogéneos de t programación é Paralelismo PPE de & datos SPE (PowerXCell) Paralelismo funcional
8 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Interconexión Arquitectura Multicore Comunicación vs. Manycore intracore Homogénea Memoria / Heterogénea compartida Interconexión Paso de mensajes Comunicación rmpi Topología Acceso Topologías a Memoria (Network compartida On Chip) Sección Bus, Crítica anillo Transaccional Mallas, Crossbar, switched Modelos networks de programación Paralelismo Jerárquica de datos por niveles (mixta) Paralelismo funcional
9 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore vs. Manycore Homogénea / Heterogénea Acceso a memoria Interconexión Comunicación compartida (Gestión del dlacceso concurrente) t) Topología Acceso Secciones a Memoria Críticas compartida Sección Alta Crítica latencia Transaccional Modelos Memoria de programación Transaccional Paralelismo Ejecución de datos especulativa Paralelismo funcional
10 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Paradigmas Homogénea / de Heterogénea programación ( cores+complex)vs(+cores complex) ( p ) Paralelismo Interconexión de datos Topología Unidad: thread Comunicación Gestión: nivel de S.O. o usuario Acceso Ejemplos: a Memoria Pthreads, OpenMP 2.5 Sección Crítica Paralelismo Transaccional funcional Unidad:tarea Software Gestión: DAGs Threads Ejemplos: Cilk, OpenMP v3.0, *Ss Tasks
11 CAOS
12 Definir un marco de trabajo acotado Paradigma de programación paralela basado en OpenMP v2.5 Paralelismo de datos Herramientas de acceso concurrente a memoria Planificación de threads a nivel de Sistema Operativo Procesadores homogéneos Dual(2 cores) memoria compartida jerárquica L2 unificada (2MB) L1 datos e instrucciones (32KB) Asociatividad por bloques (8 vías)
13 Objetivos Objetivos Identificar factores de rendimiento Estudio de los parámetros sintonizables i de una API multicore Et Estudio del dlpatrón tó de comportamientos t de una aplicación y evaluación de los factores de rendimiento
14 Desarrollo del Estudio Análisis OpenMP de GNU Compilador GCC conversión pragmas a llamadas libgomp Detectar factores de rendimiento en OpenMP Scheduling Static Dynamic Guided Selección de Aplicaciones Paralelas y Experimentación Segmentación imágenes RMI Paralelismo de grano grueso Herramientas de medición de rendimiento Profilers ompp Librería libgomp (OpenMP runtime) Librerías POSIX Thread Acceso memoria Critical Atomic Reduction Localidad de los datos Afinidad Chunksize Multiplicación de matrices Multiplicación de matrices por bloques Contadores Hardware PAPI
15 Análisis I - factor de rendimento planificación de la carga de trabajo Scheduling Static Dynamic Guided Gestión de planificación de la carga de trabajo La sintonización de las políticas de balanceo de carga puede ser determinante para el rendimiento de la aplicación
16 Análisis I Scheduling I (static) WorkLoad = Iteraciones / Num Threads Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo
17 Análisis I Scheduling II (dynamic) WorkLoad = Chunksize (1) Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo
18 Análisis I Scheduling III (guided) WorkLoad = Remaining iterations / Num Threads Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo
19 Experimentación I scheduling - segmentación RMI (I) 6 T. Ejecución (umbral de precisión 0.001) imagen RMI rmci JBC JBC_12.dat Scheduling Static Dynamic Guided Segundos Número de corte
20 Experimentación I scheduling - segmentación RMI (II) Segmentación de imágenes carga desbalanceada (convergencia) 140 Scheduling Static Dynamic Guided Segundo os 80 static 60 dynamic 40 guided Número de Threads
21 Segundo os Experimentación I scheduling - segmentación RMI (II) ,4% 3,2% Segmentación de imágenes carga desbalanceada (convergencia) 7,2% 4,2% 3,5% 1,5% 0, ,04 Scheduling Static Dynamic Guided static dynamic 68 guided Número de Threads
22 Experimentación I scheduling - segmentación RMI (III) 25 T. Ejecución Distribución (145 iteraciones) imagen RMI rmci JBC JBC_12.dat Scheduling Static Dynamic Guided 20 Segundo s Númerode corte
23 Experimentación I scheduling - segmentación RMI (IV) Segmentación de imágen carga desbalanceada (límite 145 iteraciones) 400 Scheduling Static Dynamic Guided Segundo os static dynamic guided Número de Threads
24 Segundo os Experimentación I scheduling - segmentación RMI (IV) Segmentación de imágen Overhead carga desbalanceada (límite 145iteraciones) 43.4% 21,78% 21,80% 0.65% 3.41% 0.1% 3,95% 0.02% 02% Scheduling Static Dynamic Guided static dynamic guided Número de Threads
25 Análisis II - factor de rendimiento acceso concurrente a memoria Acceso memoria Critical Atomic Reduction Sincronización de hilos El mecanismo de sincronización de acceso a memoria compartida genera una sobrecarga que afecta al rendimiento
26 Análisis II sincronización de acceso a memoria Acceso memoria Critical Atomic Reduction critical atomic reduction
27 Segund dos Experimentación II sincronización Mat. Mul. (400x400) T. Ejecución Multiplicación de Matrices (400x400) Acceso memoria Critical Atomic Reduction critical reduction atomic 3 serie Número de threads
28 Experimentación II sincronización Mat. Mul. (400x400) T. Ejecución Multiplicación de Matrices (400x400) 0,7 Acceso memoria Critical Atomic Reduction 0,6 0,5 Segund dos 0,4 0,3 0,2 ideal reduction serie especulativo 0, Número de threads
29 Análisis III - factor de rendimiento localidad espacial y temporal Localidad de los datos Afinidad Chunksize Localidad de los datos Las estructuras jerárquicas de memoria con diferentes niveles de latencia y etapas de acceso a los datos se benefician de la localidad espacial y temporal
30 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1
31 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1
32 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1
33 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1
34 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1
35 Experimentación III localidad datos Mat.Mul Mul x Bloques Multiplcación de Matrices por Bloques Tiempo total de ejecución 14 Localidad de los datos Afinidad Chunksize dos Segun Tiempo Exec X 1024 (serie) 512 x x x x x x 16 8 x 8 4 x 4 2 x 2 1 x Tamaño del bloque / Número de bloques
36 Experimentación III localidad datos Mat.Mul Mul x Bloques Fallos de Cache L2, L1 Datos y L1 Instrucciones 1,00E+08 Localidad de los datos Afinidad Chunksize Caché 1,00E+07 1,00E+06 Fallos de Nú úmero de 1,00E+05 1,00E+04 1,00E+03 1,00E+02 1,00E+01 Caché L1 Datos Caché L2 unificada Caché L1 Instrucciones 1,00E X 512 x 256 x 128 x 64 x x x 16 8 x 8 4 x 4 2 x 2 1 x (serie) Tamaño del lbl bloque / Número de bloques
37 Experimentación III localidad datos Mat.Mul Mul x Bloques Localidad de los datos Afinidad Chunksize Modificación del algoritmo para ajustar el acceso a datos para 2 niveles de caché Bloques de 64x64 elem (256 KB), ajuste L2 Sub bloques de 2x2 elem.(4kb), ajuste L1.
38 Experimentación III localidad lid d datos Mat.Mul M x Bloques (mejora) ) matriz C Localidad de los datos Afinidad Chunksize matriz A matriz B
39 Porcen ntaje de Ganancia Experimentación III localidad datos Mat.Mul Mul x Bloques 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Porcentaje de Ganancia Mat.Mul vs Mat.Mul. Optimizada a Cache 96% 84% 85% 87% 84% Localidad de los datos Afinidad Chunksize MatMul Opt. 0% Tiempo Ciclos Fallos cache Fallos caché Fallos caché L1 Instr. L1 datos L2
40 Conclusiones (I) () Se han estudiado d factores de rendimiento i para un entorno multicore Se ha estudiado la implementación GNU OpenMP que ha permitido detectar factores de rendimiento del modelo de programación Se ha analizado el patrón de comportamiento de varias aplicaciones, y se ha evaluado el impacto de sintonizar factores de rendimiento
41 Conclusiones (II) Shdli Scheduling de la carga de trabajo. bj Sintonización: dificultad moderada. No se ha conseguido mejorar el rendimiento i modificando d el tipo de planificación para diferentes cargas de trabajo Static. Poca adaptación con carga desbalanceada Guided y Dinamic. Consiguen balanceo de carga Sincronismo de acceso concurrente a memoria. Sintonización: depende de la funcionalidad. Los primitivas ofrecen diferente latencia y flexibilidad Existe un overhead en la utilización de OpenMP.
42 Conclusiones (III) Localidad de los datos Sintonización: dificultad alta Efectuando un cambio en la granularidad de los datos por fuerza bruta, no se ha conseguido una mejora significativa Sintonizando la aplicación para hacer un ajuste en los dos niveles de caché, se ha conseguido una ganancia de 6x. (respecto a la versión paralela previa)
43 Trabajo actual y Líneas abiertas Trabajo actual Ejecución en un entorno Quad (o más cores), para evaluar el rendimiento en la definición de grupos afines en una jerarquía de memoria modular Líneas abiertas Continuar con el estudio de impacto de los factores que afectan al rendimiento Estudiar la posibilidad de alterar parámetros de la aplicación de forma dinámica para mejorar su rendimiento Estudiar los factores que será necesario monitorizar para dt detectar t los problemas de rendimiento i Sentar las bases que permitan definir un modelo de rendimiento para entornos multicore
44 Gracias por vuestra atención!
45 Experimentación IV localidad datos Mat.Mul Mul x Bloques Localidad de los datos Afinidad Chunksize Tam Bloque Tiempo Ciclos Cache L1 Fallos Instr. Cache L1 Fallos Datos Cache L2 Fallos 64x 64 6,24 seg. 1,62E+10 3,86E+03 3,40E+07 4,79E x 64 opt. 0,956 seg. 2,42E+09 4,75E+02 1,10E+06 7,41E+04
Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas
Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados
Más detallesNociones básicas de computación paralela
Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad
Más detallesHerramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela
Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática
Más detallesOptimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore
Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:
Más detallesde Gran Canaria Centro de Tecnología Médica Programación Concurrente
Universidad de Las Palmas de Gran Canaria Centro de Tecnología Médica http://www.ctm.ulpgc.es Tema 1: Introducción a la Escuela Técnica Superior de Ingenieros de Telecomunicación Conceptos Fundamentales
Más detallesLusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Más detallesSistemas Distribuidos. Soporte de Sistemas Operativos
Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Tareas principales de un SO: Administrar recursos Proveer abstracciones de los
Más detallesMódulo: Modelos de programación para Big Data
Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data
Más detallesUNIVERSIDAD DEL CARIBE UNICARIBE. Escuela de Informática. Programa de Asignatura
UNIVERSIDAD DEL CARIBE UNICARIBE Escuela de Informática Programa de Asignatura Nombre de la asignatura : Sistema Operativo II Carga académica : 4 créditos Modalidad : Semi-presencial Clave : INF-223 Pre-requisito
Más detallesTEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte).
TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC www.atc.us.es Dpto. de Arquitectura y Tecnología de Computadores. Universidad
Más detallesArquitectura de Computadores II Clase #7
Arquitectura de Computadores II Clase #7 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2009 Veremos Memoria virtual Resumen de ideas para mejorar performance 1 Recordemos:
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesLos valores obtenidos de speedup tienden a incrementarse hasta los ocho procesadores. al usar diez procesadores éste se mantiene igual o decrece. Esto
En la Figura 6.9 se muestra el speedup obtenido en el tiempo de ejecución al ejecutar la aplicación con las distintas pol ticas de mapping, que pueden ser comparadas con el caso ideal. En el Apéndice D
Más detallesTile64 Many-Core. vs. Intel Xeon Multi-Core
Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez
Más detallesMINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC
MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología
Más detallesHYPERTHREADING TECHNOLOGY IN THE NETBURST MICROARCHITECTURE. Arquitectura de computadores Leyre Aldama Pérez
HYPERTHREADING TECHNOLOGY IN THE NETBURST MICROARCHITECTURE ÍNDICE 1. Introducción 2. Descripción de necesidades para la implementación de la tecnología: 2.1- Cómo trabaja la tecnología 2.2- Estructuras
Más detallesIntel XeonPhi Workshop
Intel XeonPhi Workshop Elena Núñez-González Unidad Informática Científica - CIEMAT Madrid, 11 de Febrero de 2015 Evento Lugar, Fecha Índice Introducción MIC Intel Xeon Phi Arquitectura Intel Xeon Phi Entorno
Más detallesSeminario II: Introducción a la Computación GPU
Seminario II: Introducción a la Computación GPU CONTENIDO Introducción Evolución CPUs-Evolución GPUs Evolución sistemas HPC Tecnologías GPGPU Problemática: Programación paralela en clústers heterogéneos
Más detallesCAPITULO 1 INTRODUCCION AL PROYECTO
CAPITULO 1 INTRODUCCION AL PROYECTO 1 INTRODUCCION AL PROYECTO 1.1 Marco Teórico Los procesadores digitales de señales ganaron popularidad en los años sesentas con la introducción de la tecnología de estado
Más detallesCOMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed
COMPUTADORES MULTINUCLEO Stallings W. Computer Organization and Architecture 8ed Computador multinucleo Un computador multinúcleocombina dos o mas procesadores (llamados núcleos) en una única pieza de
Más detallesAdaptación de la arquitectura linux lib de MaRTE OS a multiprocesadores
Adaptación de la arquitectura linux lib de MaRTE OS a multiprocesadores Daniel Medina Ortega, Mario Aldea Rivas, Michael González Harbour {medinad,aldeam,mgh}@unican.es Grupo de Computadores y Tiempo Real.
Más detallesIntel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
Más detallesOrganización lógica Identificación de bloque
Cómo se encuentra un bloque si está en el nivel superior? La dirección se descompone en varios campos: Etiqueta (tag): se utiliza para comparar la dirección requerida por la CPU con aquellos bloques que
Más detallesEVOLUCIÓN DE LOS PROCESADORES
EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora
Más detallesTecnología de software para sistemas de tiempo real
1 dit UPM Tecnología de software para sistemas de tiempo real Juan Antonio de la Puente DIT/UPM Motivación Las herramientas y la tecnología de software que se usan para construir otros tipos de sistemas
Más detallesInteracción entre los recursos del sistema
Interacción entre los recursos del sistema Marisa Gil (marisa@ac.upc.es) ENtornos Operativos para la Gestión de Recursos de Aplicaciones Paralelas CURSO 1.998-99 Interacción Procesador-Memoria-Red La ejecución
Más detallesUNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM
UNIDAD II Metodología de programación paralela UNIDAD II: Metodología de programación paralela Metodología de programación paralela Algunos conceptos que nos ayudarán a entender mejor el tema. Modelos
Más detalles07 y 08 Sistemas distribuidos y paralelos y tarea 02
07 y 08 Sistemas distribuidos y paralelos y tarea 02 Prof. Edgardo Adrián Franco Martínez http://computacion.cs.cinvestav.mx/~efranco efranco.docencia@gmail.com Estructuras de datos (Prof. Edgardo A. Franco)
Más detallesDepartament d Arquitectura de Computadors i Sistemes Operatius
Departament d Arquitectura de Computadors i Sistemes Operatius Màster en Computació d altes prestacions FACTORES DE RENDIMIENTO EN ENTORNOS MULTICORE. Memòria del trabajo de Iniciación a la Investigación.
Más detallesOrganización del Sistema de Memoria. 1. Tipos de memoria 2. Jerarquía de memoria 3. El principio de localidad 4. Organización de la memoria
Organización del Sistema de Memoria 1. Tipos de memoria 2. Jerarquía de memoria 3. El principio de localidad 4. Organización de la memoria 1. Tipos de memoria La memoria se puede clasificar de acuerdo
Más detallesFUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II
FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom
Más detallesMemorias RAM. Basilio B. Fraguela Rodríguez. Copyright Basilio B. Fraguela 2006
Memorias RAM Basilio B. Fraguela Rodríguez Evolución de la velocidad del procesador y la memoria 1000 Ley de Moore CPU µproc 60%/año 100 10 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 DRAM 1990
Más detallesArquitectura de Computadores II Clase #7
Arquitectura de Computadores II Clase #7 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2010 Veremos Memoria virtual 1 Recordemos: Jerarquía de Memoria Registros Instr.
Más detallesTEMA 4. ARQUITECTURA IA-64
TEMA 4. ARQUITECTURA IA-64 Stalling, W.Computer Organization and Architecture cap. 15 Intel IA-64 Architecture Software Developer s Manual Generalidades IA-64 Desarrollo conjunto Intel-HP Nueva arquitectura
Más detallesPontificia Universidad Católica del Ecuador
1. DATOS INFORMATIVOS: MATERIA O MÓDULO: CÓDIGO: CARRERA: NIVEL: Sistemas Operativos IS603.a Sistemas Tercero No. CRÉDITOS: 4 CRÉDITOS TEORÍA: 4 CRÉDITOS PRÁCTICA: 0 SEMESTRE / AÑO ACADÉMICO: Segundo Semestre
Más detallesPontificia Universidad Católica del Ecuador
1. DATOS INFORMATIVOS: FACULTAD DE INGENIERÍA ESCUELA DE SISTEMAS MATERIA O MÓDULO: Sistemas Operativos CÓDIGO: IS603.a CARRERA: INGENIERÍA DE SISTEMAS NIVEL: TERCERO No. CRÉDITOS: 4 CRÉDITOS TEORÍA: 4
Más detallesComputación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación
Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en
Más detallesAnálisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices
Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices MTI Jimmy Josué Peña Koo Instituto Tecnológico Superior del Sur
Más detallesAgradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1
Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos
Más detallesFecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro
Nombre del estudiante: Giovanna Kristhel Mendoza Castillo Nombre del trabajo: Investigación sobre los Sistemas Operativos distribuidos Fecha de entrega: Miércoles 4 de Septiembre Campus: Villahermosa Carrera
Más detallesCapítulo III: MARCO METODOLÓGICO
Capítulo III: MARCO METODOLÓGICO Tipo de Investigación El presente trabajo de investigación, tuvo como propósito el desarrollo de una aplicación experimental que permitió evaluar la operatividad y funcionalidad
Más detallesUNIVERSIDAD NACIONAL FEDERICO VILLARREAL FACULTAD DE INGENIERÍA ELECTRÓNICA E INFORMÁTICA SÍLABO
SÍLABO ASIGNATURA: SISTEMAS OPERATIVOS CODIGO: 8E0003 I. DATOS GENERALES: 1.1 Departamento Académico : Ingeniería Electrónica e Informática 1.2 Escuela Profesional : Ingeniería Informática 1.3 Ciclo de
Más detallesIntroducción a la computación paralela
Introducción a la computación paralela Mario Medina C. mariomedina@udec.cl Porqué computación paralela? Avances tecnológicos (HW) Avances en conocimientos (SW) Tópicos a comentar Ley de Moore Ley de Kryder
Más detallesPR1: Programación I 6 Fb Sistemas Lógicos 6 Obligatoria IC: Introducción a los computadores 6 Fb Administración de
CUADRO DE ADAPTACIÓN INGENIERÍA INFORMÁTICA - Campus Río Ebro Código Asignaturas aprobadas Créditos Carácter Asignaturas/Materias reconocida Créditos Carácter 12007 Cálculo 7,5 MAT1; Matemáticas I 12009
Más detallesHOJA DE CONTROL DE CAMBIOS EN LA NORMATIVA INTERNA DE EP PETROECUADOR
HOJA DE CONTROL DE CAMBIOS EN LA NORMATIVA INTERNA DE EP PETROECUADOR TIPO DE DOCUMENTO: MACROPROCESO (SI APLICA): PROCESO (SI APLICA): IDENTIFICACIÓN DEL DOCUMENTO Procedimiento: H01.02.03-PR- Mantenimiento
Más detallesArea Académica: Sistemas Computacionales. Tema: Elementos de diseño de memoria caché
Area Académica: Sistemas Computacionales Tema: Elementos de diseño de memoria caché Profesor: Raúl Hernández Palacios Periodo: 2011 Keywords: Memory, cache memory. Tema: Elementos de diseño de memoria
Más detallesThreads, SMP y Microkernels. Proceso
Threads, SMP y Microkernels Proceso Propiedad de los recursos a un proceso se le asigna un espacio de dirección virtual para guardar su imagen Calendarización/ejecución sigue una ruta de ejecución la cual
Más detallesGUÍA DOCENTE Arquitecturas Avanzadas de Computadores
GUÍA DOCENTE 2016-2017 Arquitecturas Avanzadas de Computadores 1. Denominación de la asignatura: Arquitecturas Avanzadas de Computadores Titulación Máster en Ingeniería Informática Código 7060 2. Materia
Más detallesTÉCNICO SUPERIOR UNIVERSITARIO EN MECATRÓNICA ÁREA AUTOMATIZACIÓN EN COMPETENCIAS PROFESIONALES ASIGNATURA DE LENGUAJE DE PROGRAMACIÓN
TÉCNICO SUPERIOR UNIVERSITARIO EN MECATRÓNICA ÁREA AUTOMATIZACIÓN EN COMPETENCIAS PROFESIONALES ASIGNATURA DE LENGUAJE DE PROGRAMACIÓN 1. Competencias Implementar sistemas de medición y control bajo los
Más detallesHeterogénea y Jerárquica
Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida
Más detallesTiempo real. Juan Antonio de la Puente DIT/UPM. Tiempo real. Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real
dit UPM Tiempo real Juan Antonio de la Puente DIT/UPM Tiempo real Objetivo Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real Contenido: Sistemas de referencia de tiempo
Más detallesARQUITECTURAS PARA PROCESAMIENTO PARALELO
1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes
Más detallesAutomatización de banco de ensayo de engranajes para el estudio de métodos de detección de estado
Automatización de banco de ensayo de engranajes para el estudio de métodos de detección de estado "La utilización de las herramientas software de NI ha permitido el desarrollo de un sistema de control
Más detallesUPM Gestión del tiempo real
UPM Gestión del tiempo real Juan Antonio de la Puente DIT/UPM Tiempo real Objetivo Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real Contenido: Sistemas de referencia
Más detallesProcesos. Bibliografía. Threads y procesos. Definiciones
Procesos Prof. Mariela Curiel Bibliografía A. Tanembaum & M. Van Steen. Sistemas Distribuidos. Principios y Paradigmas. 2da. Edición. Smith & Nair. The Architecture of Virtual Machines. IEEE Computer.
Más detallesSistemas Distribuidos: Migración de Procesos
Sistemas Distribuidos: Migración de Procesos Yudith Cardinale Universidad Central de Venezuela Facultad de Ciencias Postgrado en Computación Octubre 2013 Febrero 2014 Objetivos Entender la importancia
Más detallesTEMA II: ALMACENAMIENTO DE LA INFORMACIÓN
CUESTIONES A TRATAR: Existe un tipo único tipo de memoria en un determinado computador? Todas las memorias de un computador tienen la misma función?. Qué es la memoria interna de un computador? Por qué
Más detallesParte I:Teoría. Tema 3:Introducción a los Sistemas operativos. Instalación
Tema 3:Introducción a los Sistemas operativos. Instalación Parte I:Teoría Introducción a los SO Componentes Llamadas al sistema Estructura del Kernel Drivers Esta obra está bajo una licencia Reconocimiento-No
Más detallesInformática Electrónica Manejadores de Dispositivos (Device Drivers)
Informática Electrónica Manejadores de Dispositivos (Device Drivers) DSI-EIE-FCEIA 2015 Que es un DD? Es una pieza de software que interactúa con (entre) el sistema operativo y con uno o mas dispositivos
Más detallesConcurrencia y paralelismo
Introducción a los Sistemas Operativos Concurrencia y paralelismo 1. Ejecución de programas. Procesos. 2. Multiprogramación Bibliografía Silberschatz and Galvin Sistemas Operativos. Conceptos fundamentales.
Más detallesDIRECCIÓN Y GESTIÓN DE PLANES DE MARKETING
DIRECCIÓN Y GESTIÓN DE PLANES DE MARKETING Objetivos Adquirir conocimiento de las modalidades del marketing y rasgos diferenciales. Conocer las actividades que se llevan a cabo desde la Dirección de marketing.
Más detallesCAPITULO VI. REDES DE DATOS
1. CONCEPTOS BASICOS. 1.1. Introducción CAPITULO VI. REDES DE DATOS Fuente: http://www.aldeaeducativa.com/images/comunicacion-proceso.gif Fuente. http://www.huascaran.edu.pe/estudiantes/acurriculares/e-comunicacion.htm
Más detallesRELOJES DE TIEMPO REAL ÍNDICE
de Real de Real Conceptos Conceptos Teóricos Teóricos del del Real Denso Real Denso Discreto Discreto en Pulsos en Pulsos Ideales Ideales Propiedades Propiedades Métricas Métricas de de Sistemas Sistemas
Más detallesTema V Generación de Código
Tema V Generación de Código Una vez que se ha realizado la partición HW/SW y conocemos las operaciones que se van a implementar por hardware y software, debemos abordar el proceso de estas implementaciones.
Más detallesAdolfo J. Banchio. FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba. 27 04 10 Seminario de grupo 1
Paralelizar un Código usando OpenMP Adolfo J. Banchio FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba 27 04 10 Seminario de grupo 1 Contenido Introducción Paralelización: por qué OpenMP? Qué es OpenMP?
Más detallesUNIVERSIDAD DE GUADALAJARA
UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS TALLER DE REDES AVANZADAS
Más detallesFLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí
FLAG/C Una API para computación matricial sobre GPUs M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí High Performance Computing & Architectures Group Universitat Jaume I de Castellón
Más detallesPROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes 6 10 1,5 1.5 7
PROGRAMA DE CURSO Código Nombre CC5320 Programación Consciente de la Arquitectura Nombre en Inglés Awareness of architecture in programming SCT Unidades Horas Docencia Horas de Trabajo Horas de Cátedra
Más detallesProgramación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.
Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,
Más detallesAnálisis de rendimiento de algoritmos paralelos
Análisis de rendimiento de algoritmos paralelos Joaquín Andrés López Molina josandlopmol@gmail.com Daniel Mauricio Rodríguez Alpizar danielmau231995@hotmail.com Estudiantes de Ingeniería en Computación
Más detallesMemoria Cache. Departamento de Arquitectura de Computadores
Memoria Cache Departamento de Arquitectura de Computadores Índice Introducción. Conceptos básicos Características de los sistemas de memoria Jerarquías de memoria Memoria Principal Características físicas
Más detallesOmbú / Wbs (Web based Systems)
Ombú / Wbs (Web based Systems) Prueba de Stress Empresa Argentina Organización y Gestión SRL San Jose 83 Piso 8 (C1076AAA) Buenos Aires Argentina Tel.: (5411) 4383-4600 email: arg@oyg.com.ar INDICE 1.
Más detallesFUNCIONAMIENTO DEL ORDENADOR
FUNCIONAMIENTO DEL ORDENADOR COMPUTACIÓN E INFORMÁTICA Datos de entrada Dispositivos de Entrada ORDENADOR PROGRAMA Datos de salida Dispositivos de Salida LOS ORDENADORES FUNCIONAN CON PROGRAMAS Los ordenadores
Más detallesTIPOS DE REDES Y TOPOLOGIAS
TIPOS DE REDES Y TOPOLOGIAS 1 Concepto Una Red es un conjunto de ordenadores interconectados entre si mediante cable o por otros medios inalámbricos. 2 Objetivos Compartir recursos: archivos, impresoras,
Más detallesConceptos generales de sistemas distribuidos
Departament d Arquitectura de Computadors Conceptos generales de sistemas distribuidos Sistema distribuido Un sistema en el que los componentes hardware y/o software ubicados en computadores en red, se
Más detallesSILABO DE SISTEMAS OPERATIVOS
UNIVERSIDAD PRIVADA DEL NORTE Facultad de Ingeniería I. DATOS GENERALES SILABO DE SISTEMAS OPERATIVOS 1.1. Facultad : Ingeniería. 1.2. Carrera Profesional : Ingeniería de Sistemas. 1.3. Tipo de Curso :
Más detallesEjercicios de jerarquía de memoria
Ejercicios de jerarquía de memoria J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores Grupo ARCOS Departamento
Más detallesCLUSTER FING: ARQUITECTURA Y APLICACIONES
CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster
Más detallesArquitectura del PLC. Dpto. Electrónica, Automática e Informática Industrial)
Arquitectura del PLC Dpto. Electrónica, Automática e Informática Industrial) www.elai.upm.es Introducción (I) El PLC recibe, en tiempo real, la información de los sensores conectados al proceso y ejecuta
Más detallesComputación Paralela Móvil
Algoritmos y Programación Paralela Facultad de Informática Universidad de Murcia Copyleft c 2008. Reproducción permitida bajo los términos de la licencia de documentación libre GNU. Contenido 1 Introducción
Más detallesSISTEMAS OPERATIVOS Arquitectura de computadores
SISTEMAS OPERATIVOS Arquitectura de computadores Erwin Meza Vega emezav@unicauca.edu.co Esta presentación tiene por objetivo mostrar los conceptos generales de la arquitectura de los computadores, necesarios
Más detallesEspecialidades en GII-TI
Especialidades en GII-TI José Luis Ruiz Reina (coordinador) Escuela Técnica Superior de Ingeniería Informática Mayo 2014 Qué especialidades tiene la Ingeniería Informática? Según las asociaciones científicas
Más detallesSISTEMAS DE MULTIPROCESAMIENTO
SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función
Más detallesMáster Universitario en Tecnologías de la Información y las Comunicaciones Universidad de Alcalá Curso Académico 2013/14
Sistemas Distribuidos de Control Máster Universitario en Tecnologías de la Información y las Comunicaciones Universidad de Alcalá Curso Académico 2013/14 GUÍA DOCENTE Nombre de la asignatura: Código: 200593
Más detallesProgramación concurrente
Programación concurrente Josep Jorba Esteve Remo Suppi Boldrito P07/M2106/02841 FUOC P07/M2106/02841 2 Programación concurrente FUOC P07/M2106/02841 Programación concurrente Índice Introducción... 5 Objetivos...
Más detallesTema 1: Arquitectura de ordenadores, hardware y software
Fundamentos de Informática Tema 1: Arquitectura de ordenadores, hardware y software 2010-11 Índice 1. Informática 2. Modelo de von Neumann 3. Sistemas operativos 2 1. Informática INFORMación automática
Más detallesUNIVERSIDAD DE GUADALAJARA
UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS ORGANIZACIÓN DE COMPUTADORAS
Más detallesJosé Luis Montoya Restrepo
José Luis Montoya Restrepo AGENDA Definición y Características. Metas de los sistemas distribuidos. Conceptos de Hardware y Software. Definición: Un sistema distribuido es: Una colección de computadores
Más detallesAsignaturas antecedentes y subsecuentes
PROGRAMA DE ESTUDIOS Sistemas Operativos I Área a la que pertenece: Área Sustantiva Profesional Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0168 Asignaturas antecedentes y subsecuentes PRESENTACIÓN
Más detalles15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores.
UNIDAD TEMÁTICA 5: MULTIPROCESADORES. 15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. 15-1 TEMA 15: ARQUITECTURA DE LOS MULTIPROCESADORES.
Más detallesT5-multithreading. Indice
T5-multithreading 1.1 Indice Proceso vs. Flujos Librerías de flujos Comunicación mediante memoria compartida Condición de carrera Sección Crítica Acceso en exclusión mutua Problemas Abrazos mortales 1.2
Más detallesPlanificación de procesos: Temas relacionados
Planificación de procesos: Temas relacionados Facultad de Ingeniería, UNAM Instituto de Investigaciones Económicas, UNAM Índice 1 Afinando al despachador 2 3 4 Comparando los distintos algoritmos Los ejemplos
Más detallesOrganización del Computador I. Introducción e Historia
Organización del Computador I Introducción e Historia Introducción Qué es una computadora? Stallings: Máquina digital electrónica programable para el tratamiento automático de la información, capaz de
Más detallesARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES
ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segundo Cuatrimestre) Ingeniería Informática Profesor: Valencia, 31 de Enero de 2012 Prefacio. El temario recogido en estos apuntes se corresponde con la
Más detallescuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar
cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo
Más detallesNombre de la asignatura: Algoritmos y Lenguajes de programación.
Nombre de la asignatura: Algoritmos y Lenguajes de programación. Créditos: 2-4- 6 Aportación al perfil Dominar la lógica necesaria para aprender lenguajes de programación de alto nivel para poder resolver
Más detallesMICROCONTROLADORES PIC16F84 ING. RAÚL ROJAS REÁTEGUI
MICROCONTROLADORES PIC16F84 ING. RAÚL ROJAS REÁTEGUI DEFINICIÓN Es un microcontrolador de Microchip Technology fabricado en tecnología CMOS, completamente estático es decir si el reloj se detiene los datos
Más detallesLinear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006
Linear Algebra PACKage () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Estructura Qué es la biblioteca? Organización de Funcionalidad de Sistemas
Más detallesMetodología para implantación de AZDigital
Metodología para implantación de AZDigital Localizacion: http://subversion.analitica.com.co:8023/azdigital/docs/rfcs/sgp-rfc-001 Directrices para desarrollo con SGP.docx En este documento se reúne la experiencia
Más detallesCuando el lenguaje si importa
Cuando el lenguaje si importa de software financiero J. Daniel Garcia Grupo ARCOS Universidad Carlos III de Madrid 11 de mayo de 2016 cbed J. Daniel Garcia ARCOS@UC3M (josedaniel.garcia@uc3m.es) Twitter
Más detalles