Factores de Rendimiento en Entornos Multicore

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Factores de Rendimiento en Entornos Multicore"

Transcripción

1 Factores de Rendimiento en Entornos Multicore César Allande Álvarez Computer Architecture & Operating Systems Department (CAOS) Barcelona, Spain Director: Eduardo César Galobardes 14 de julio de 2010

2 Índice Introducción Objetivos Desarrollo del Estudio Análisis y Experimentación Conclusiones Trabajo actual y Líneas abiertas

3 Introducción Qué? Integración de sistemas multicore en HPC Por qué? Mejora deeficiencia eficiencia, rendimiento y consumo Cómo? Sintonizando aplicaciones paralelas Teniendo en cuenta el modelo de programación Teniendo en cuenta la arquitectura Considerando el patrón de comportamiento de la aplicación

4 Introducción Multicore en HPC? Multicore está implantado en HPC 3% 0% 1% 1% 4% Top 500 Supercomputers June 2010 Number of Cores per processor 46% 45% single core dual / 2 core 4 core 6 core 8 cores 9 cores (8+1) 12 cores

5 Introducción Ley de Moore La potencia de los ordenadores se duplica cada dos años, reduciendo además su coste. Ley de Amdahl Ley de Gustafson El incremento de velocidad de un programa utilizando múltiples procesadores en computación distribuida está limitadai por la fracción secuencial ildl del programa Cualquier problema suficientemente grande puede ser eficientemente paralelizado Kill Rule Se debe incrementar el tamaño del recurso solamente si por cada 1% de aumento del área se obtiene al menos un 1% de mejora de rendimiento del core

6 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore vs. Manycore Homogénea / Heterogénea Interconexión Comunicación Topología Acceso a Memoria compartida Sección Crítica Transaccional Modelos de programación Paralelismo de datos Paralelismo funcional

7 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore Arquitectura vs. Manycore Homogénea / Heterogénea Interconexión Escalabilidad Comunicación cores + complejos (multicore) + cores complejos lj (manycore) Topología Acceso Tipos a Memoria de cores compartida (funcionalidad) Sección Homogéneos Crítica Transaccional Intel Core Modelos Heterogéneos de t programación é Paralelismo PPE de & datos SPE (PowerXCell) Paralelismo funcional

8 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Interconexión Arquitectura Multicore Comunicación vs. Manycore intracore Homogénea Memoria / Heterogénea compartida Interconexión Paso de mensajes Comunicación rmpi Topología Acceso Topologías a Memoria (Network compartida On Chip) Sección Bus, Crítica anillo Transaccional Mallas, Crossbar, switched Modelos networks de programación Paralelismo Jerárquica de datos por niveles (mixta) Paralelismo funcional

9 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Multicore vs. Manycore Homogénea / Heterogénea Acceso a memoria Interconexión Comunicación compartida (Gestión del dlacceso concurrente) t) Topología Acceso Secciones a Memoria Críticas compartida Sección Alta Crítica latencia Transaccional Modelos Memoria de programación Transaccional Paralelismo Ejecución de datos especulativa Paralelismo funcional

10 Introducción Taxonomía multicore ia Prin ncipal Memor Procesador Core Core Arquitectura Paradigmas Homogénea / de Heterogénea programación ( cores+complex)vs(+cores complex) ( p ) Paralelismo Interconexión de datos Topología Unidad: thread Comunicación Gestión: nivel de S.O. o usuario Acceso Ejemplos: a Memoria Pthreads, OpenMP 2.5 Sección Crítica Paralelismo Transaccional funcional Unidad:tarea Software Gestión: DAGs Threads Ejemplos: Cilk, OpenMP v3.0, *Ss Tasks

11 CAOS

12 Definir un marco de trabajo acotado Paradigma de programación paralela basado en OpenMP v2.5 Paralelismo de datos Herramientas de acceso concurrente a memoria Planificación de threads a nivel de Sistema Operativo Procesadores homogéneos Dual(2 cores) memoria compartida jerárquica L2 unificada (2MB) L1 datos e instrucciones (32KB) Asociatividad por bloques (8 vías)

13 Objetivos Objetivos Identificar factores de rendimiento Estudio de los parámetros sintonizables i de una API multicore Et Estudio del dlpatrón tó de comportamientos t de una aplicación y evaluación de los factores de rendimiento

14 Desarrollo del Estudio Análisis OpenMP de GNU Compilador GCC conversión pragmas a llamadas libgomp Detectar factores de rendimiento en OpenMP Scheduling Static Dynamic Guided Selección de Aplicaciones Paralelas y Experimentación Segmentación imágenes RMI Paralelismo de grano grueso Herramientas de medición de rendimiento Profilers ompp Librería libgomp (OpenMP runtime) Librerías POSIX Thread Acceso memoria Critical Atomic Reduction Localidad de los datos Afinidad Chunksize Multiplicación de matrices Multiplicación de matrices por bloques Contadores Hardware PAPI

15 Análisis I - factor de rendimento planificación de la carga de trabajo Scheduling Static Dynamic Guided Gestión de planificación de la carga de trabajo La sintonización de las políticas de balanceo de carga puede ser determinante para el rendimiento de la aplicación

16 Análisis I Scheduling I (static) WorkLoad = Iteraciones / Num Threads Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo

17 Análisis I Scheduling II (dynamic) WorkLoad = Chunksize (1) Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo

18 Análisis I Scheduling III (guided) WorkLoad = Remaining iterations / Num Threads Scheduling Static Dynamic Guided Core 1 Core 2 Core 3 Core 4 Tiempo

19 Experimentación I scheduling - segmentación RMI (I) 6 T. Ejecución (umbral de precisión 0.001) imagen RMI rmci JBC JBC_12.dat Scheduling Static Dynamic Guided Segundos Número de corte

20 Experimentación I scheduling - segmentación RMI (II) Segmentación de imágenes carga desbalanceada (convergencia) 140 Scheduling Static Dynamic Guided Segundo os 80 static 60 dynamic 40 guided Número de Threads

21 Segundo os Experimentación I scheduling - segmentación RMI (II) ,4% 3,2% Segmentación de imágenes carga desbalanceada (convergencia) 7,2% 4,2% 3,5% 1,5% 0, ,04 Scheduling Static Dynamic Guided static dynamic 68 guided Número de Threads

22 Experimentación I scheduling - segmentación RMI (III) 25 T. Ejecución Distribución (145 iteraciones) imagen RMI rmci JBC JBC_12.dat Scheduling Static Dynamic Guided 20 Segundo s Númerode corte

23 Experimentación I scheduling - segmentación RMI (IV) Segmentación de imágen carga desbalanceada (límite 145 iteraciones) 400 Scheduling Static Dynamic Guided Segundo os static dynamic guided Número de Threads

24 Segundo os Experimentación I scheduling - segmentación RMI (IV) Segmentación de imágen Overhead carga desbalanceada (límite 145iteraciones) 43.4% 21,78% 21,80% 0.65% 3.41% 0.1% 3,95% 0.02% 02% Scheduling Static Dynamic Guided static dynamic guided Número de Threads

25 Análisis II - factor de rendimiento acceso concurrente a memoria Acceso memoria Critical Atomic Reduction Sincronización de hilos El mecanismo de sincronización de acceso a memoria compartida genera una sobrecarga que afecta al rendimiento

26 Análisis II sincronización de acceso a memoria Acceso memoria Critical Atomic Reduction critical atomic reduction

27 Segund dos Experimentación II sincronización Mat. Mul. (400x400) T. Ejecución Multiplicación de Matrices (400x400) Acceso memoria Critical Atomic Reduction critical reduction atomic 3 serie Número de threads

28 Experimentación II sincronización Mat. Mul. (400x400) T. Ejecución Multiplicación de Matrices (400x400) 0,7 Acceso memoria Critical Atomic Reduction 0,6 0,5 Segund dos 0,4 0,3 0,2 ideal reduction serie especulativo 0, Número de threads

29 Análisis III - factor de rendimiento localidad espacial y temporal Localidad de los datos Afinidad Chunksize Localidad de los datos Las estructuras jerárquicas de memoria con diferentes niveles de latencia y etapas de acceso a los datos se benefician de la localidad espacial y temporal

30 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1

31 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1

32 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1

33 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1

34 Análisis III - Localidad de los datos Localidad de los datos Afinidad Chunksize L1 L1 L1 L1

35 Experimentación III localidad datos Mat.Mul Mul x Bloques Multiplcación de Matrices por Bloques Tiempo total de ejecución 14 Localidad de los datos Afinidad Chunksize dos Segun Tiempo Exec X 1024 (serie) 512 x x x x x x 16 8 x 8 4 x 4 2 x 2 1 x Tamaño del bloque / Número de bloques

36 Experimentación III localidad datos Mat.Mul Mul x Bloques Fallos de Cache L2, L1 Datos y L1 Instrucciones 1,00E+08 Localidad de los datos Afinidad Chunksize Caché 1,00E+07 1,00E+06 Fallos de Nú úmero de 1,00E+05 1,00E+04 1,00E+03 1,00E+02 1,00E+01 Caché L1 Datos Caché L2 unificada Caché L1 Instrucciones 1,00E X 512 x 256 x 128 x 64 x x x 16 8 x 8 4 x 4 2 x 2 1 x (serie) Tamaño del lbl bloque / Número de bloques

37 Experimentación III localidad datos Mat.Mul Mul x Bloques Localidad de los datos Afinidad Chunksize Modificación del algoritmo para ajustar el acceso a datos para 2 niveles de caché Bloques de 64x64 elem (256 KB), ajuste L2 Sub bloques de 2x2 elem.(4kb), ajuste L1.

38 Experimentación III localidad lid d datos Mat.Mul M x Bloques (mejora) ) matriz C Localidad de los datos Afinidad Chunksize matriz A matriz B

39 Porcen ntaje de Ganancia Experimentación III localidad datos Mat.Mul Mul x Bloques 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% Porcentaje de Ganancia Mat.Mul vs Mat.Mul. Optimizada a Cache 96% 84% 85% 87% 84% Localidad de los datos Afinidad Chunksize MatMul Opt. 0% Tiempo Ciclos Fallos cache Fallos caché Fallos caché L1 Instr. L1 datos L2

40 Conclusiones (I) () Se han estudiado d factores de rendimiento i para un entorno multicore Se ha estudiado la implementación GNU OpenMP que ha permitido detectar factores de rendimiento del modelo de programación Se ha analizado el patrón de comportamiento de varias aplicaciones, y se ha evaluado el impacto de sintonizar factores de rendimiento

41 Conclusiones (II) Shdli Scheduling de la carga de trabajo. bj Sintonización: dificultad moderada. No se ha conseguido mejorar el rendimiento i modificando d el tipo de planificación para diferentes cargas de trabajo Static. Poca adaptación con carga desbalanceada Guided y Dinamic. Consiguen balanceo de carga Sincronismo de acceso concurrente a memoria. Sintonización: depende de la funcionalidad. Los primitivas ofrecen diferente latencia y flexibilidad Existe un overhead en la utilización de OpenMP.

42 Conclusiones (III) Localidad de los datos Sintonización: dificultad alta Efectuando un cambio en la granularidad de los datos por fuerza bruta, no se ha conseguido una mejora significativa Sintonizando la aplicación para hacer un ajuste en los dos niveles de caché, se ha conseguido una ganancia de 6x. (respecto a la versión paralela previa)

43 Trabajo actual y Líneas abiertas Trabajo actual Ejecución en un entorno Quad (o más cores), para evaluar el rendimiento en la definición de grupos afines en una jerarquía de memoria modular Líneas abiertas Continuar con el estudio de impacto de los factores que afectan al rendimiento Estudiar la posibilidad de alterar parámetros de la aplicación de forma dinámica para mejorar su rendimiento Estudiar los factores que será necesario monitorizar para dt detectar t los problemas de rendimiento i Sentar las bases que permitan definir un modelo de rendimiento para entornos multicore

44 Gracias por vuestra atención!

45 Experimentación IV localidad datos Mat.Mul Mul x Bloques Localidad de los datos Afinidad Chunksize Tam Bloque Tiempo Ciclos Cache L1 Fallos Instr. Cache L1 Fallos Datos Cache L2 Fallos 64x 64 6,24 seg. 1,62E+10 3,86E+03 3,40E+07 4,79E x 64 opt. 0,956 seg. 2,42E+09 4,75E+02 1,10E+06 7,41E+04

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas

Multiplicación de Matrices en Sistemas cc-numa Multicore. Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Multiplicación de Matrices en Sistemas cc-numa Multicore Autor: Jesús Cámara Moreno Director: Domingo Giménez Cánovas Índice de Contenido 1. Introducción 2. Línea de Investigación 3. Sistemas Empleados

Más detalles

Nociones básicas de computación paralela

Nociones básicas de computación paralela Nociones básicas de computación paralela Javier Cuenca 1, Domingo Giménez 2 1 Departamento de Ingeniería y Tecnología de Computadores Universidad de Murcia 2 Departamento de Informática y Sistemas Universidad

Más detalles

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela

Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Introducción Herramientas Estudio Conclusiones Herramientas para el estudio de prestaciones en clusters de computación científica, aplicación en el Laboratorio de Computación Paralela Ingeniería en Informática

Más detalles

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore

Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Máster en Nuevas Tecnologías en Informática Facultad de Informática Universidad de Murcia Optimización de Rutinas Multinivel de Álgebra Lineal en Sistemas Multicore Autor: Jesús Cámara Moreno Directores:

Más detalles

de Gran Canaria Centro de Tecnología Médica Programación Concurrente

de Gran Canaria Centro de Tecnología Médica  Programación Concurrente Universidad de Las Palmas de Gran Canaria Centro de Tecnología Médica http://www.ctm.ulpgc.es Tema 1: Introducción a la Escuela Técnica Superior de Ingenieros de Telecomunicación Conceptos Fundamentales

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Sistemas Distribuidos. Soporte de Sistemas Operativos

Sistemas Distribuidos. Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Tareas principales de un SO: Administrar recursos Proveer abstracciones de los

Más detalles

Módulo: Modelos de programación para Big Data

Módulo: Modelos de programación para Big Data Program. paralela/distribuida Módulo: Modelos de programación para Big Data (título original: Entornos de programación paralela basados en modelos/paradigmas) Fernando Pérez Costoya Introducción Big Data

Más detalles

UNIVERSIDAD DEL CARIBE UNICARIBE. Escuela de Informática. Programa de Asignatura

UNIVERSIDAD DEL CARIBE UNICARIBE. Escuela de Informática. Programa de Asignatura UNIVERSIDAD DEL CARIBE UNICARIBE Escuela de Informática Programa de Asignatura Nombre de la asignatura : Sistema Operativo II Carga académica : 4 créditos Modalidad : Semi-presencial Clave : INF-223 Pre-requisito

Más detalles

TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte).

TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). TEMA 5: PARALELISMO A NIVEL DE HILOS, TAREAS Y PETICIONES (TLP, RLP) (primera parte). SISTEMAS PARALELOS Y DISTRIBUIDOS. 3º GIC www.atc.us.es Dpto. de Arquitectura y Tecnología de Computadores. Universidad

Más detalles

Arquitectura de Computadores II Clase #7

Arquitectura de Computadores II Clase #7 Arquitectura de Computadores II Clase #7 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2009 Veremos Memoria virtual Resumen de ideas para mejorar performance 1 Recordemos:

Más detalles

Modelado de los computadores paralelos

Modelado de los computadores paralelos Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente

Más detalles

Los valores obtenidos de speedup tienden a incrementarse hasta los ocho procesadores. al usar diez procesadores éste se mantiene igual o decrece. Esto

Los valores obtenidos de speedup tienden a incrementarse hasta los ocho procesadores. al usar diez procesadores éste se mantiene igual o decrece. Esto En la Figura 6.9 se muestra el speedup obtenido en el tiempo de ejecución al ejecutar la aplicación con las distintas pol ticas de mapping, que pueden ser comparadas con el caso ideal. En el Apéndice D

Más detalles

Tile64 Many-Core. vs. Intel Xeon Multi-Core

Tile64 Many-Core. vs. Intel Xeon Multi-Core Tile64 Many-Core vs. Intel Xeon Multi-Core Comparación del Rendimiento en Bioinformática Myriam Kurtz Francisco J. Esteban Pilar Hernández Juan Antonio Caballero Antonio Guevara Gabriel Dorado Sergio Gálvez

Más detalles

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología

Más detalles

HYPERTHREADING TECHNOLOGY IN THE NETBURST MICROARCHITECTURE. Arquitectura de computadores Leyre Aldama Pérez

HYPERTHREADING TECHNOLOGY IN THE NETBURST MICROARCHITECTURE. Arquitectura de computadores Leyre Aldama Pérez HYPERTHREADING TECHNOLOGY IN THE NETBURST MICROARCHITECTURE ÍNDICE 1. Introducción 2. Descripción de necesidades para la implementación de la tecnología: 2.1- Cómo trabaja la tecnología 2.2- Estructuras

Más detalles

Intel XeonPhi Workshop

Intel XeonPhi Workshop Intel XeonPhi Workshop Elena Núñez-González Unidad Informática Científica - CIEMAT Madrid, 11 de Febrero de 2015 Evento Lugar, Fecha Índice Introducción MIC Intel Xeon Phi Arquitectura Intel Xeon Phi Entorno

Más detalles

Seminario II: Introducción a la Computación GPU

Seminario II: Introducción a la Computación GPU Seminario II: Introducción a la Computación GPU CONTENIDO Introducción Evolución CPUs-Evolución GPUs Evolución sistemas HPC Tecnologías GPGPU Problemática: Programación paralela en clústers heterogéneos

Más detalles

CAPITULO 1 INTRODUCCION AL PROYECTO

CAPITULO 1 INTRODUCCION AL PROYECTO CAPITULO 1 INTRODUCCION AL PROYECTO 1 INTRODUCCION AL PROYECTO 1.1 Marco Teórico Los procesadores digitales de señales ganaron popularidad en los años sesentas con la introducción de la tecnología de estado

Más detalles

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed

COMPUTADORES MULTINUCLEO. Stallings W. Computer Organization and Architecture 8ed COMPUTADORES MULTINUCLEO Stallings W. Computer Organization and Architecture 8ed Computador multinucleo Un computador multinúcleocombina dos o mas procesadores (llamados núcleos) en una única pieza de

Más detalles

Adaptación de la arquitectura linux lib de MaRTE OS a multiprocesadores

Adaptación de la arquitectura linux lib de MaRTE OS a multiprocesadores Adaptación de la arquitectura linux lib de MaRTE OS a multiprocesadores Daniel Medina Ortega, Mario Aldea Rivas, Michael González Harbour {medinad,aldeam,mgh}@unican.es Grupo de Computadores y Tiempo Real.

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

Organización lógica Identificación de bloque

Organización lógica Identificación de bloque Cómo se encuentra un bloque si está en el nivel superior? La dirección se descompone en varios campos: Etiqueta (tag): se utiliza para comparar la dirección requerida por la CPU con aquellos bloques que

Más detalles

EVOLUCIÓN DE LOS PROCESADORES

EVOLUCIÓN DE LOS PROCESADORES EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora

Más detalles

Tecnología de software para sistemas de tiempo real

Tecnología de software para sistemas de tiempo real 1 dit UPM Tecnología de software para sistemas de tiempo real Juan Antonio de la Puente DIT/UPM Motivación Las herramientas y la tecnología de software que se usan para construir otros tipos de sistemas

Más detalles

Interacción entre los recursos del sistema

Interacción entre los recursos del sistema Interacción entre los recursos del sistema Marisa Gil (marisa@ac.upc.es) ENtornos Operativos para la Gestión de Recursos de Aplicaciones Paralelas CURSO 1.998-99 Interacción Procesador-Memoria-Red La ejecución

Más detalles

UNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM

UNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM UNIDAD II Metodología de programación paralela UNIDAD II: Metodología de programación paralela Metodología de programación paralela Algunos conceptos que nos ayudarán a entender mejor el tema. Modelos

Más detalles

07 y 08 Sistemas distribuidos y paralelos y tarea 02

07 y 08 Sistemas distribuidos y paralelos y tarea 02 07 y 08 Sistemas distribuidos y paralelos y tarea 02 Prof. Edgardo Adrián Franco Martínez http://computacion.cs.cinvestav.mx/~efranco efranco.docencia@gmail.com Estructuras de datos (Prof. Edgardo A. Franco)

Más detalles

Departament d Arquitectura de Computadors i Sistemes Operatius

Departament d Arquitectura de Computadors i Sistemes Operatius Departament d Arquitectura de Computadors i Sistemes Operatius Màster en Computació d altes prestacions FACTORES DE RENDIMIENTO EN ENTORNOS MULTICORE. Memòria del trabajo de Iniciación a la Investigación.

Más detalles

Organización del Sistema de Memoria. 1. Tipos de memoria 2. Jerarquía de memoria 3. El principio de localidad 4. Organización de la memoria

Organización del Sistema de Memoria. 1. Tipos de memoria 2. Jerarquía de memoria 3. El principio de localidad 4. Organización de la memoria Organización del Sistema de Memoria 1. Tipos de memoria 2. Jerarquía de memoria 3. El principio de localidad 4. Organización de la memoria 1. Tipos de memoria La memoria se puede clasificar de acuerdo

Más detalles

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II

FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom

Más detalles

Memorias RAM. Basilio B. Fraguela Rodríguez. Copyright Basilio B. Fraguela 2006

Memorias RAM. Basilio B. Fraguela Rodríguez. Copyright Basilio B. Fraguela 2006 Memorias RAM Basilio B. Fraguela Rodríguez Evolución de la velocidad del procesador y la memoria 1000 Ley de Moore CPU µproc 60%/año 100 10 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 DRAM 1990

Más detalles

Arquitectura de Computadores II Clase #7

Arquitectura de Computadores II Clase #7 Arquitectura de Computadores II Clase #7 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2010 Veremos Memoria virtual 1 Recordemos: Jerarquía de Memoria Registros Instr.

Más detalles

TEMA 4. ARQUITECTURA IA-64

TEMA 4. ARQUITECTURA IA-64 TEMA 4. ARQUITECTURA IA-64 Stalling, W.Computer Organization and Architecture cap. 15 Intel IA-64 Architecture Software Developer s Manual Generalidades IA-64 Desarrollo conjunto Intel-HP Nueva arquitectura

Más detalles

Pontificia Universidad Católica del Ecuador

Pontificia Universidad Católica del Ecuador 1. DATOS INFORMATIVOS: MATERIA O MÓDULO: CÓDIGO: CARRERA: NIVEL: Sistemas Operativos IS603.a Sistemas Tercero No. CRÉDITOS: 4 CRÉDITOS TEORÍA: 4 CRÉDITOS PRÁCTICA: 0 SEMESTRE / AÑO ACADÉMICO: Segundo Semestre

Más detalles

Pontificia Universidad Católica del Ecuador

Pontificia Universidad Católica del Ecuador 1. DATOS INFORMATIVOS: FACULTAD DE INGENIERÍA ESCUELA DE SISTEMAS MATERIA O MÓDULO: Sistemas Operativos CÓDIGO: IS603.a CARRERA: INGENIERÍA DE SISTEMAS NIVEL: TERCERO No. CRÉDITOS: 4 CRÉDITOS TEORÍA: 4

Más detalles

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación

Computación de Propósito General en Unidades de Procesamiento Gráfico GPGPU. Clase 0 Lanzamiento del Curso. Motivación Computación de Propósito General en Unidades de Procesamiento Gráfico () Pablo Ezzatti, Martín Pedemonte Clase 0 Lanzamiento del Curso Contenido Evolución histórica en Fing Infraestructura disponible en

Más detalles

Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices

Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices Análisis del desempeño de aplicaciones paralelas con openmp en dispositivos móviles multicore, caso de estudio: multiplicación de matrices MTI Jimmy Josué Peña Koo Instituto Tecnológico Superior del Sur

Más detalles

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1

Agradecimientos. Nota de los autores. 1 Problemas, algoritmos y programas 1 Prologo Agradecimientos Nota de los autores Índice general I III V VII 1 Problemas, algoritmos y programas 1 1.1 Programas y la actividad de la programación.................... 4 1.2 Lenguajes y modelos

Más detalles

Fecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro

Fecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro Nombre del estudiante: Giovanna Kristhel Mendoza Castillo Nombre del trabajo: Investigación sobre los Sistemas Operativos distribuidos Fecha de entrega: Miércoles 4 de Septiembre Campus: Villahermosa Carrera

Más detalles

Capítulo III: MARCO METODOLÓGICO

Capítulo III: MARCO METODOLÓGICO Capítulo III: MARCO METODOLÓGICO Tipo de Investigación El presente trabajo de investigación, tuvo como propósito el desarrollo de una aplicación experimental que permitió evaluar la operatividad y funcionalidad

Más detalles

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL FACULTAD DE INGENIERÍA ELECTRÓNICA E INFORMÁTICA SÍLABO

UNIVERSIDAD NACIONAL FEDERICO VILLARREAL FACULTAD DE INGENIERÍA ELECTRÓNICA E INFORMÁTICA SÍLABO SÍLABO ASIGNATURA: SISTEMAS OPERATIVOS CODIGO: 8E0003 I. DATOS GENERALES: 1.1 Departamento Académico : Ingeniería Electrónica e Informática 1.2 Escuela Profesional : Ingeniería Informática 1.3 Ciclo de

Más detalles

Introducción a la computación paralela

Introducción a la computación paralela Introducción a la computación paralela Mario Medina C. mariomedina@udec.cl Porqué computación paralela? Avances tecnológicos (HW) Avances en conocimientos (SW) Tópicos a comentar Ley de Moore Ley de Kryder

Más detalles

PR1: Programación I 6 Fb Sistemas Lógicos 6 Obligatoria IC: Introducción a los computadores 6 Fb Administración de

PR1: Programación I 6 Fb Sistemas Lógicos 6 Obligatoria IC: Introducción a los computadores 6 Fb Administración de CUADRO DE ADAPTACIÓN INGENIERÍA INFORMÁTICA - Campus Río Ebro Código Asignaturas aprobadas Créditos Carácter Asignaturas/Materias reconocida Créditos Carácter 12007 Cálculo 7,5 MAT1; Matemáticas I 12009

Más detalles

HOJA DE CONTROL DE CAMBIOS EN LA NORMATIVA INTERNA DE EP PETROECUADOR

HOJA DE CONTROL DE CAMBIOS EN LA NORMATIVA INTERNA DE EP PETROECUADOR HOJA DE CONTROL DE CAMBIOS EN LA NORMATIVA INTERNA DE EP PETROECUADOR TIPO DE DOCUMENTO: MACROPROCESO (SI APLICA): PROCESO (SI APLICA): IDENTIFICACIÓN DEL DOCUMENTO Procedimiento: H01.02.03-PR- Mantenimiento

Más detalles

Area Académica: Sistemas Computacionales. Tema: Elementos de diseño de memoria caché

Area Académica: Sistemas Computacionales. Tema: Elementos de diseño de memoria caché Area Académica: Sistemas Computacionales Tema: Elementos de diseño de memoria caché Profesor: Raúl Hernández Palacios Periodo: 2011 Keywords: Memory, cache memory. Tema: Elementos de diseño de memoria

Más detalles

Threads, SMP y Microkernels. Proceso

Threads, SMP y Microkernels. Proceso Threads, SMP y Microkernels Proceso Propiedad de los recursos a un proceso se le asigna un espacio de dirección virtual para guardar su imagen Calendarización/ejecución sigue una ruta de ejecución la cual

Más detalles

GUÍA DOCENTE Arquitecturas Avanzadas de Computadores

GUÍA DOCENTE Arquitecturas Avanzadas de Computadores GUÍA DOCENTE 2016-2017 Arquitecturas Avanzadas de Computadores 1. Denominación de la asignatura: Arquitecturas Avanzadas de Computadores Titulación Máster en Ingeniería Informática Código 7060 2. Materia

Más detalles

TÉCNICO SUPERIOR UNIVERSITARIO EN MECATRÓNICA ÁREA AUTOMATIZACIÓN EN COMPETENCIAS PROFESIONALES ASIGNATURA DE LENGUAJE DE PROGRAMACIÓN

TÉCNICO SUPERIOR UNIVERSITARIO EN MECATRÓNICA ÁREA AUTOMATIZACIÓN EN COMPETENCIAS PROFESIONALES ASIGNATURA DE LENGUAJE DE PROGRAMACIÓN TÉCNICO SUPERIOR UNIVERSITARIO EN MECATRÓNICA ÁREA AUTOMATIZACIÓN EN COMPETENCIAS PROFESIONALES ASIGNATURA DE LENGUAJE DE PROGRAMACIÓN 1. Competencias Implementar sistemas de medición y control bajo los

Más detalles

Heterogénea y Jerárquica

Heterogénea y Jerárquica Metodología de la Programación Paralela 2015-2016 Facultad Informática, Universidad de Murcia Computación Híbrida, Heterogénea y Jerárquica Contenidos 1 Sistemas 2 Paralelismo anidado 3 Programación híbrida

Más detalles

Tiempo real. Juan Antonio de la Puente DIT/UPM. Tiempo real. Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real

Tiempo real. Juan Antonio de la Puente DIT/UPM. Tiempo real. Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real dit UPM Tiempo real Juan Antonio de la Puente DIT/UPM Tiempo real Objetivo Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real Contenido: Sistemas de referencia de tiempo

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Automatización de banco de ensayo de engranajes para el estudio de métodos de detección de estado

Automatización de banco de ensayo de engranajes para el estudio de métodos de detección de estado Automatización de banco de ensayo de engranajes para el estudio de métodos de detección de estado "La utilización de las herramientas software de NI ha permitido el desarrollo de un sistema de control

Más detalles

UPM Gestión del tiempo real

UPM Gestión del tiempo real UPM Gestión del tiempo real Juan Antonio de la Puente DIT/UPM Tiempo real Objetivo Comprender el papel del tiempo en el diseño y realización de sistemas de tiempo real Contenido: Sistemas de referencia

Más detalles

Procesos. Bibliografía. Threads y procesos. Definiciones

Procesos. Bibliografía. Threads y procesos. Definiciones Procesos Prof. Mariela Curiel Bibliografía A. Tanembaum & M. Van Steen. Sistemas Distribuidos. Principios y Paradigmas. 2da. Edición. Smith & Nair. The Architecture of Virtual Machines. IEEE Computer.

Más detalles

Sistemas Distribuidos: Migración de Procesos

Sistemas Distribuidos: Migración de Procesos Sistemas Distribuidos: Migración de Procesos Yudith Cardinale Universidad Central de Venezuela Facultad de Ciencias Postgrado en Computación Octubre 2013 Febrero 2014 Objetivos Entender la importancia

Más detalles

TEMA II: ALMACENAMIENTO DE LA INFORMACIÓN

TEMA II: ALMACENAMIENTO DE LA INFORMACIÓN CUESTIONES A TRATAR: Existe un tipo único tipo de memoria en un determinado computador? Todas las memorias de un computador tienen la misma función?. Qué es la memoria interna de un computador? Por qué

Más detalles

Parte I:Teoría. Tema 3:Introducción a los Sistemas operativos. Instalación

Parte I:Teoría. Tema 3:Introducción a los Sistemas operativos. Instalación Tema 3:Introducción a los Sistemas operativos. Instalación Parte I:Teoría Introducción a los SO Componentes Llamadas al sistema Estructura del Kernel Drivers Esta obra está bajo una licencia Reconocimiento-No

Más detalles

Informática Electrónica Manejadores de Dispositivos (Device Drivers)

Informática Electrónica Manejadores de Dispositivos (Device Drivers) Informática Electrónica Manejadores de Dispositivos (Device Drivers) DSI-EIE-FCEIA 2015 Que es un DD? Es una pieza de software que interactúa con (entre) el sistema operativo y con uno o mas dispositivos

Más detalles

Concurrencia y paralelismo

Concurrencia y paralelismo Introducción a los Sistemas Operativos Concurrencia y paralelismo 1. Ejecución de programas. Procesos. 2. Multiprogramación Bibliografía Silberschatz and Galvin Sistemas Operativos. Conceptos fundamentales.

Más detalles

DIRECCIÓN Y GESTIÓN DE PLANES DE MARKETING

DIRECCIÓN Y GESTIÓN DE PLANES DE MARKETING DIRECCIÓN Y GESTIÓN DE PLANES DE MARKETING Objetivos Adquirir conocimiento de las modalidades del marketing y rasgos diferenciales. Conocer las actividades que se llevan a cabo desde la Dirección de marketing.

Más detalles

CAPITULO VI. REDES DE DATOS

CAPITULO VI. REDES DE DATOS 1. CONCEPTOS BASICOS. 1.1. Introducción CAPITULO VI. REDES DE DATOS Fuente: http://www.aldeaeducativa.com/images/comunicacion-proceso.gif Fuente. http://www.huascaran.edu.pe/estudiantes/acurriculares/e-comunicacion.htm

Más detalles

RELOJES DE TIEMPO REAL ÍNDICE

RELOJES DE TIEMPO REAL ÍNDICE de Real de Real Conceptos Conceptos Teóricos Teóricos del del Real Denso Real Denso Discreto Discreto en Pulsos en Pulsos Ideales Ideales Propiedades Propiedades Métricas Métricas de de Sistemas Sistemas

Más detalles

Tema V Generación de Código

Tema V Generación de Código Tema V Generación de Código Una vez que se ha realizado la partición HW/SW y conocemos las operaciones que se van a implementar por hardware y software, debemos abordar el proceso de estas implementaciones.

Más detalles

Adolfo J. Banchio. FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba. 27 04 10 Seminario de grupo 1

Adolfo J. Banchio. FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba. 27 04 10 Seminario de grupo 1 Paralelizar un Código usando OpenMP Adolfo J. Banchio FaMAF, IFEG-CONICET, Universidad Nacional de Córdoba 27 04 10 Seminario de grupo 1 Contenido Introducción Paralelización: por qué OpenMP? Qué es OpenMP?

Más detalles

UNIVERSIDAD DE GUADALAJARA

UNIVERSIDAD DE GUADALAJARA UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS TALLER DE REDES AVANZADAS

Más detalles

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí

FLAG/C. Una API para computación matricial sobre GPUs. M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí FLAG/C Una API para computación matricial sobre GPUs M. Jesús Zafont Alberto Martín Francisco Igual Enrique S. Quintana-Ortí High Performance Computing & Architectures Group Universitat Jaume I de Castellón

Más detalles

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes 6 10 1,5 1.5 7

PROGRAMA DE CURSO. Horas Docencia Horas de Trabajo Horas de Cátedra Docentes 6 10 1,5 1.5 7 PROGRAMA DE CURSO Código Nombre CC5320 Programación Consciente de la Arquitectura Nombre en Inglés Awareness of architecture in programming SCT Unidades Horas Docencia Horas de Trabajo Horas de Cátedra

Más detalles

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes.

Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Programación híbrida en arquitecturas cluster de multicore. Escalabilidad y comparación con memoria compartida y pasaje de mensajes. Fabiana Leibovich, Armando De Giusti, Marcelo Naiouf, Laura De Giusti,

Más detalles

Análisis de rendimiento de algoritmos paralelos

Análisis de rendimiento de algoritmos paralelos Análisis de rendimiento de algoritmos paralelos Joaquín Andrés López Molina josandlopmol@gmail.com Daniel Mauricio Rodríguez Alpizar danielmau231995@hotmail.com Estudiantes de Ingeniería en Computación

Más detalles

Memoria Cache. Departamento de Arquitectura de Computadores

Memoria Cache. Departamento de Arquitectura de Computadores Memoria Cache Departamento de Arquitectura de Computadores Índice Introducción. Conceptos básicos Características de los sistemas de memoria Jerarquías de memoria Memoria Principal Características físicas

Más detalles

Ombú / Wbs (Web based Systems)

Ombú / Wbs (Web based Systems) Ombú / Wbs (Web based Systems) Prueba de Stress Empresa Argentina Organización y Gestión SRL San Jose 83 Piso 8 (C1076AAA) Buenos Aires Argentina Tel.: (5411) 4383-4600 email: arg@oyg.com.ar INDICE 1.

Más detalles

FUNCIONAMIENTO DEL ORDENADOR

FUNCIONAMIENTO DEL ORDENADOR FUNCIONAMIENTO DEL ORDENADOR COMPUTACIÓN E INFORMÁTICA Datos de entrada Dispositivos de Entrada ORDENADOR PROGRAMA Datos de salida Dispositivos de Salida LOS ORDENADORES FUNCIONAN CON PROGRAMAS Los ordenadores

Más detalles

TIPOS DE REDES Y TOPOLOGIAS

TIPOS DE REDES Y TOPOLOGIAS TIPOS DE REDES Y TOPOLOGIAS 1 Concepto Una Red es un conjunto de ordenadores interconectados entre si mediante cable o por otros medios inalámbricos. 2 Objetivos Compartir recursos: archivos, impresoras,

Más detalles

Conceptos generales de sistemas distribuidos

Conceptos generales de sistemas distribuidos Departament d Arquitectura de Computadors Conceptos generales de sistemas distribuidos Sistema distribuido Un sistema en el que los componentes hardware y/o software ubicados en computadores en red, se

Más detalles

SILABO DE SISTEMAS OPERATIVOS

SILABO DE SISTEMAS OPERATIVOS UNIVERSIDAD PRIVADA DEL NORTE Facultad de Ingeniería I. DATOS GENERALES SILABO DE SISTEMAS OPERATIVOS 1.1. Facultad : Ingeniería. 1.2. Carrera Profesional : Ingeniería de Sistemas. 1.3. Tipo de Curso :

Más detalles

Ejercicios de jerarquía de memoria

Ejercicios de jerarquía de memoria Ejercicios de jerarquía de memoria J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores Grupo ARCOS Departamento

Más detalles

CLUSTER FING: ARQUITECTURA Y APLICACIONES

CLUSTER FING: ARQUITECTURA Y APLICACIONES CLUSTER FING: ARQUITECTURA Y APLICACIONES SERGIO NESMACHNOW Centro de Cálculo, Instituto de Computación FACULTAD DE INGENIERÍA, UNIVERSIDAD DE LA REPÚBLICA, URUGUAY CONTENIDO Introducción Clusters Cluster

Más detalles

Arquitectura del PLC. Dpto. Electrónica, Automática e Informática Industrial)

Arquitectura del PLC. Dpto. Electrónica, Automática e Informática Industrial) Arquitectura del PLC Dpto. Electrónica, Automática e Informática Industrial) www.elai.upm.es Introducción (I) El PLC recibe, en tiempo real, la información de los sensores conectados al proceso y ejecuta

Más detalles

Computación Paralela Móvil

Computación Paralela Móvil Algoritmos y Programación Paralela Facultad de Informática Universidad de Murcia Copyleft c 2008. Reproducción permitida bajo los términos de la licencia de documentación libre GNU. Contenido 1 Introducción

Más detalles

SISTEMAS OPERATIVOS Arquitectura de computadores

SISTEMAS OPERATIVOS Arquitectura de computadores SISTEMAS OPERATIVOS Arquitectura de computadores Erwin Meza Vega emezav@unicauca.edu.co Esta presentación tiene por objetivo mostrar los conceptos generales de la arquitectura de los computadores, necesarios

Más detalles

Especialidades en GII-TI

Especialidades en GII-TI Especialidades en GII-TI José Luis Ruiz Reina (coordinador) Escuela Técnica Superior de Ingeniería Informática Mayo 2014 Qué especialidades tiene la Ingeniería Informática? Según las asociaciones científicas

Más detalles

SISTEMAS DE MULTIPROCESAMIENTO

SISTEMAS DE MULTIPROCESAMIENTO SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función

Más detalles

Máster Universitario en Tecnologías de la Información y las Comunicaciones Universidad de Alcalá Curso Académico 2013/14

Máster Universitario en Tecnologías de la Información y las Comunicaciones Universidad de Alcalá Curso Académico 2013/14 Sistemas Distribuidos de Control Máster Universitario en Tecnologías de la Información y las Comunicaciones Universidad de Alcalá Curso Académico 2013/14 GUÍA DOCENTE Nombre de la asignatura: Código: 200593

Más detalles

Programación concurrente

Programación concurrente Programación concurrente Josep Jorba Esteve Remo Suppi Boldrito P07/M2106/02841 FUOC P07/M2106/02841 2 Programación concurrente FUOC P07/M2106/02841 Programación concurrente Índice Introducción... 5 Objetivos...

Más detalles

Tema 1: Arquitectura de ordenadores, hardware y software

Tema 1: Arquitectura de ordenadores, hardware y software Fundamentos de Informática Tema 1: Arquitectura de ordenadores, hardware y software 2010-11 Índice 1. Informática 2. Modelo de von Neumann 3. Sistemas operativos 2 1. Informática INFORMación automática

Más detalles

UNIVERSIDAD DE GUADALAJARA

UNIVERSIDAD DE GUADALAJARA UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS ORGANIZACIÓN DE COMPUTADORAS

Más detalles

José Luis Montoya Restrepo

José Luis Montoya Restrepo José Luis Montoya Restrepo AGENDA Definición y Características. Metas de los sistemas distribuidos. Conceptos de Hardware y Software. Definición: Un sistema distribuido es: Una colección de computadores

Más detalles

Asignaturas antecedentes y subsecuentes

Asignaturas antecedentes y subsecuentes PROGRAMA DE ESTUDIOS Sistemas Operativos I Área a la que pertenece: Área Sustantiva Profesional Horas teóricas: 3 Horas prácticas: 2 Créditos: 8 Clave: F0168 Asignaturas antecedentes y subsecuentes PRESENTACIÓN

Más detalles

15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores.

15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. UNIDAD TEMÁTICA 5: MULTIPROCESADORES. 15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. 15-1 TEMA 15: ARQUITECTURA DE LOS MULTIPROCESADORES.

Más detalles

T5-multithreading. Indice

T5-multithreading. Indice T5-multithreading 1.1 Indice Proceso vs. Flujos Librerías de flujos Comunicación mediante memoria compartida Condición de carrera Sección Crítica Acceso en exclusión mutua Problemas Abrazos mortales 1.2

Más detalles

Planificación de procesos: Temas relacionados

Planificación de procesos: Temas relacionados Planificación de procesos: Temas relacionados Facultad de Ingeniería, UNAM Instituto de Investigaciones Económicas, UNAM Índice 1 Afinando al despachador 2 3 4 Comparando los distintos algoritmos Los ejemplos

Más detalles

Organización del Computador I. Introducción e Historia

Organización del Computador I. Introducción e Historia Organización del Computador I Introducción e Historia Introducción Qué es una computadora? Stallings: Máquina digital electrónica programable para el tratamiento automático de la información, capaz de

Más detalles

ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES

ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segundo Cuatrimestre) Ingeniería Informática Profesor: Valencia, 31 de Enero de 2012 Prefacio. El temario recogido en estos apuntes se corresponde con la

Más detalles

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar

cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar cuevogenet Paralelización en CUDA de la Dinámica Evolutiva de Redes Génicas Realizado por: Raúl García Calvo Dirigido por: Fernando Díaz del Río José Luis Guisado Lizar Objetivos Implementar un algoritmo

Más detalles

Nombre de la asignatura: Algoritmos y Lenguajes de programación.

Nombre de la asignatura: Algoritmos y Lenguajes de programación. Nombre de la asignatura: Algoritmos y Lenguajes de programación. Créditos: 2-4- 6 Aportación al perfil Dominar la lógica necesaria para aprender lenguajes de programación de alto nivel para poder resolver

Más detalles

MICROCONTROLADORES PIC16F84 ING. RAÚL ROJAS REÁTEGUI

MICROCONTROLADORES PIC16F84 ING. RAÚL ROJAS REÁTEGUI MICROCONTROLADORES PIC16F84 ING. RAÚL ROJAS REÁTEGUI DEFINICIÓN Es un microcontrolador de Microchip Technology fabricado en tecnología CMOS, completamente estático es decir si el reloj se detiene los datos

Más detalles

Linear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006

Linear Algebra PACKage (LAPACK) Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Linear Algebra PACKage () Avances en la Generación de Bibliotecas de Álgebra Lineal Universidad Politécnica de Valencia Marzo, 2006 Estructura Qué es la biblioteca? Organización de Funcionalidad de Sistemas

Más detalles

Metodología para implantación de AZDigital

Metodología para implantación de AZDigital Metodología para implantación de AZDigital Localizacion: http://subversion.analitica.com.co:8023/azdigital/docs/rfcs/sgp-rfc-001 Directrices para desarrollo con SGP.docx En este documento se reúne la experiencia

Más detalles

Cuando el lenguaje si importa

Cuando el lenguaje si importa Cuando el lenguaje si importa de software financiero J. Daniel Garcia Grupo ARCOS Universidad Carlos III de Madrid 11 de mayo de 2016 cbed J. Daniel Garcia ARCOS@UC3M (josedaniel.garcia@uc3m.es) Twitter

Más detalles