TEMA 4 PROCESAMIENTO PARALELO

Tamaño: px
Comenzar la demostración a partir de la página:

Download "TEMA 4 PROCESAMIENTO PARALELO"

Transcripción

1 TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida

2 Tipos de plataformas de computación paralela Organización lógica. Visión que tiene el programador La estructura de control Maestro/Esclavo SPMD Modelo de comunicación entre tareas Espacio de direcciones único y compartido (Memoria compartida) El paso de mensajes Organización física. Según la forma de acceso en un sistema multiprocesador a la región de memoria común a todos los procesadores Sistema de memoria compartido: un único sistema de memoria es compartido por todos los procesadores Sistema de memoria distribuida: cada procesador tiene su propia memoria física, inaccesible por el resto.

3 Sistema de memoria distribuida Cada procesador dispone de su propia memoria, independiente del resto y solo accesible por su procesador La comunicación se realiza por paso de mensajes También conocida como arquitectura de memoria privada o arquitectura de paso de mensajes

4 Sistema de memoria distribuida El paso de mensajes es la estrategia dominante en los sistemas con gran número de procesadores (mayor que 100) y en programas que pueden dividirse en subprogramas independientes Se intentará minimizar el número de mensajes y maximizar su tamaño

5 Sistema de memoria distribuida Procesadores masivamente paralelos (MPPs- Massively Parallel Processor) Un único computador con múltiples CPU s comunicadas por un bus de datos Cluster (múltiples computadores cada uno con su propio procesador, enlazados por una red de interconexión) De clase Beowulf (cada computador del cluster está exclusivamente dedicado al cluster) NOW (cada computador del cluster no está exclusivamente dedicado al cluster)

6 Un sistema Beowulf Conjunto de nodos minimalistas (placa base con cpu, memoria y dispositivo comunicación) conectados por un medio de comunicación barato Cada nodo de un Beowulf se dedica exclusivamente a procesos del supercomputador. Conexiones placa a placa por cable RJ-45 cruzado Se evita el hardware innecesario a cambio de una fuerte dependencia entre el software y la topología de la red

7 CLUSTERS Presentan distintas topologías en función de las conexiones punto a punto que se establezcan entre sus procesadores redes lineales, de anillo o en estrella hipercubos La implementación más natural y habitual de los clusters es como parte de una red de área local, en la que las máquinas que forman el cluster se conectan a una red de alta velocidad y la máquina que actúa como servidor se conecta además a la red exterior. Se utilizan como dispositivos de interconexión los switches (la comunicación entre procesadores dispone del 100% del ancho de banda del canal)

8 CLUSTERS Las exigencias de cálculo de las aplicaciones comerciales y científicas crecen día a día. Podemos aumentar la capacidad de la unidad de procesamiento aumentar la memoria o sustituir el procesador por otro de tecnología superior y/o de mayor velocidad de reloj hacer que varias unidades colaboren para la resolución conjunta de una tarea procesamiento en paralelo tecnología del pipelining procesamiento superescalar procesadores vectoriales paralelismo sobre un registro supercomputadores vectoriales y procesadores masivamente paralelos, MPPs clusters (alternativa de menor coste ampliamente utilizada y consolidada)

9 VENTAJAS DE LOS CLUSTERS Se pueden construir con un esfuerzo relativamente moderado. Son sistemas de bajo coste. Utilizan hardware convencional y accesible comunicación comercial Myrinet o Fast Ethernet) (sistema de Software de libre distribución Linux, PVM Machine) o MPI (Message Passing Interface) (Parallel Virtual Son sistemas escalables Cada máquina de un cluster puede ser un sistema completo utilizable o aprovechable para otros propósitos Es posible diseñar el cluster de tal forma que si un nodo falla, el resto continúe trabajando Que los programas escritos para un cluster funcionarán en cualquier otro con independencia del tipo de procesador de cada nodo sin más que recompilar el código

10 DESVENTAJAS DE LOS CLUSTERS Las redes ordinarias no están diseñadas para el procesamiento paralelo. La latencia de red es alta y el ancho de banda relativamente bajo En los sistemas operativos monoprocesador existe muy poco software para tratar un cluster como un único sistema

11 Cuándo y cómo utilizar un cluster? La razón de ser del procesamiento paralelo es acelerar la resolución de un problema. Con n procesadores es posible resolver el problema n veces más rápido que haciendo uso de uno sólo (salvo por el mínimo retraso que supone el reparto de trabajo inicial y la recolección de datos final), La aceleración superlineal: el programa se ejecuta aún más rápido que en régimen lineal Deceleración: encuentran los problemas que se paralelizan muy mal, es decir, necesitan estar continuamente compartiendo datos entre procesadores para obtener el resultado final. El tiempo de ejecución aumenta a medida que aumenta el número de procesadores Típica: cada procesador conozca, tras cada paso, el estado del sistema completo, con lo que todos los datos deben propagarse a todos los computadores (interacción gravitatoria o la culombiana)

12 PARALELIZAR APLICACIONES PARA USO EN CLUSTER Adaptar una aplicación propia de cálculo intensivo para sacar provecho de un cluster, y para ello no hay más remedio que recurrir a su paralelización Programar explícitamente el paso de mensajes Usando sockets o el dispositivo de red directamente Las bibliotecas de paso de mensajes PVM (Parallel Virtual Machine, máquina paralela virtual) y MPI (Message Passing Interface, interfaz para el paso de mensajes) Las bibliotecas de función colectiva AFAPI (Aggregate Function APZ, API de funciones colectivas). Utilizar herramientas que lo hagan Herramientas de paralelización automática (muy caros y, lo que es peor, funcionan realmente mal) Lenguajes de programación paralelos Nuevos lenguajes (Ora3 y Parallaxis4) Desarrollo de extensiones paralelas para lenguajes como Fortran o C» HPF (High Performance Fortran, Fortran de alto rendimiento).

13 RENDIMIENTO Y COSTES EN SISTEMAS PARALELOS Factores que influyen en la velocidad computacional Granularidad de los procesos. Factor de aceleración (speedup). Ley de Amdahl. Eficiencia. Coste. Escalabilidad. Balance de carga.

14 Granularidad de los procesos. Lo mucho que se ha dividido el problema en pedazos Granularidad gruesa: Gran número de instrucciones secuenciales que no necesitan de la comunicación con otros procesos para ser ejecutadas. Granularidad fina: Dispone de pocas instrucciones secuenciales Se trata de maximizar esa razón manteniendo el paralelismo suficiente. tiempo de computación tiempo de comunicaci ón t t comp com

15 Factor de aceleración (speedup). Medida del rendimiento relativo entre un sistema multiprocesador y un sistema con un único procesador ts S( M ) t La aceleración máxima absoluta con M procesadores S( M ) t t s s M p M

16 Factor de aceleración (speedup). Factores que aparecen como sobrecarga Existencia de partes secuenciales que no se pueden dividir y las tiene que ejecutar un único procesador Cálculos adicionales que aparecen en el programa paralelo y no en el secuencial Tiempo de comunicación para enviar mensajes

17 Ley de Amdahl Determina una cota inferior para el tiempo de ejecución, aun cuando no se utilicen al máximo las técnicas de paralelismo (no considera las sobrecargas) M: nº de procesadores f: fracción de código no paralelizable t p ( M ) f t s 1 f M t s

18 Ley de Amdahl El factor de aceleración viene dado S( M ) f t s t s M 1 f t 1 M 1 f M s lim S( M ) 1 f Según Amdahl la razón para aumentar el número de procesadores debe ser para resolver problemas de tamaño mayor y no para resolver más rápidamente un problema de tamaño fijo M

19 Eficiencia Normalización de la aceleración entre el número de procesadores E S( M ) M x100% t P ts M x100% 1 1 ( M 1) x100% Define la fracción de tiempo que se utilizan los procesadores durante la computación, es decir, da una medida de lo adecuadamente que han sido utilizados los procesadores f

20 Coste C= tiempo de ejecución x Número de procesadores utilizados C ts S M t s M E

21 Escalabilidad Indica un diseño hardware que permite ampliar su tamaño para obtener una mejora en el rendimiento. Un sistema es escalable si el rendimiento del mismo se incrementa linealmente con relación al número de procesadores usados para una cierta aplicación. Parámetros que afectan a la escalabilidad Tamaño del sistema Frecuencia del reloj Tamaño del problema Tiempo de CPU Capacidad de memoria Pérdidas (overhead) de comunicación Coste del sistema

22 Balance de carga Consiste en distribuir de una forma equitativa la carga computacional entre todos los procesadores disponibles y con ello conseguir la máxima velocidad de ejecución

23 Balance de carga Se puede hacer Balance de carga estático (mapeado del problema o planificación del problema) Difícil estimar de forma precisa el tiempo de ejecución Difícil incorporar la variable retardo de comunicación Algoritmos con número indeterminado de pasos computacionales (algoritmo de búsqueda) Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Resulta en una alternativa mucho más eficiente que el balance de carga estático Balance de carga dinámico centralizado Balance de carga dinámico distribuido

24 Balance de carga Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Balance de carga dinámico centralizado El proceso maestro reparte las tareas, al acabarlas se les dará más. Programación por demanda o bolsa de trabajo. Es mejor repartir primero las tareas de mayor carga computacional. Balance de carga dinámico distribuido

25 Balance de carga Balance de carga dinámico (reparto de tareas durante la ejecución del programa) Balance de carga dinámico centralizado Balance de carga dinámico distribuido Un grupo de maestros controla a un grupo de esclavos.

26 Costes de la comunicación mediante pasos de mensajes Tiempo de inicialización t s Tiempo en preparar el mensaje, tiempo ejecución algoritmo enrutamiento, tiempo de conexión entre el emisor y el enrutador Tiempo de salto t h Tiempo que tarda la cabecera de un mensaje en viajar entre dos nodos directamente conectados en la red Tiempo de transferencia por palabra t w Inverso del ancho de banda (inverso de cantidad de palabras por segundo)

27 Costes de la comunicación mediante pasos de mensajes ALGORITMOS DE ENRUTAMIENTO Almacenamiento y reenvío (store-andforward) t mt t s w h l Hasta que no se ha recibido el mensaje y almacenado no se envía. t com t Corte y continuación (cut-through) t com t s s lt mlt h w mt w

28 examen septiembre 2012

29 COSTES DE LA COMUNICACIÓN MEDIANTE MEMORIA COMPARTIDA El cálculo es mucho más complejo que cuando se usa paso de mensajes por: El programador tiene control reducido sobre la localización de los objetos en memoria Si el tamaño de la caché es mayor que el tamaño de los datos se produce hiperpaginación La sobrecarga por operaciones de coherencia de caché (invalidad y actualizar) es difícil de cuantificar La latencia de acceso a las diferentes palabras de una caché puede variar La lectura anticipada de palabras (depende del compilador y la disponibilidad de recursos) El fenómeno de false-sharing (diferentes procesadores acceden a distintos datos almacenados en el mismo bloque de caché) puede incluir una sobrecarga La competición por los recursos (depende de la ejecución del programa)

Granularidad y latencia

Granularidad y latencia Niveles de paralelismo y latencias de comunicación Niveles de paralelismo. Granularidad o tamaño de grano. Latencia de comunicación. Particionado de los programas. Empaquetado de granos. Planificación

Más detalles

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE

Computación de Alta Performance Curso 2009 MEDIDAS DE PERFORMANCE MEDIDAS DE PERFORMANCE Computación de Alta Performance Curso 2009 Objetivos: Estimación de desempeño de algoritmos paralelos. Comparación con algoritmos seriales. Factores intuitivos para evaluar la performance: Tiempo de ejecución.

Más detalles

PROCESAMIENTO DISTRIBUIDO

PROCESAMIENTO DISTRIBUIDO Pág. 1 INTRODUCCIÓN PROCESAMIENTO DISTRIBUIDO Arquitectura de comunicaciones: Software básico de una red de computadoras Brinda soporte para aplicaciones distribuidas Permite diferentes Sistemas Operativos

Más detalles

Redes de Altas Prestaciones

Redes de Altas Prestaciones Redes de Altas Prestaciones Tema 1: Introducción Características de los sistemas distribuidos Necesidad de las arquitecturas de red de altas prestaciones Organización de la asignatura Características de

Más detalles

Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17

Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Clústeres y procesamiento en paralelo XE1GNZ J O R G E F BARBOSA J ACOBO F E B R E R O DE 20 17 Al escuchar la palabra clúster se piensa en grandes maquinas exclusivas de los grandes de la computación

Más detalles

TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS. Introducción Hardware Software Aspectos de diseño

TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS. Introducción Hardware Software Aspectos de diseño TEMA 10 INTRODUCCIÓN A LOS SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos:

Más detalles

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores

Más detalles

PARADIGMA y LENGUAJES DE PROGRAMACIÓN

PARADIGMA y LENGUAJES DE PROGRAMACIÓN CATEDRA CARRERA: PARADIGMA y LENGUAJES DE PROGRAMACIÓN LICENCIATURA EN SISTEMAS DE INFORMACION FACULTAD DE CIENCIAS EXACTAS QUIMICAS Y NATURALES UNIVERSIDAD NACIONAL DE MISIONES Año 2017 2do Cuatrimestre

Más detalles

MULTIPROCESADORES MODELOS DE INTERCONEXIÓN

MULTIPROCESADORES MODELOS DE INTERCONEXIÓN Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público

Más detalles

Tema 3: Sistemas de Alta Velocidad

Tema 3: Sistemas de Alta Velocidad Tema 3: Sistemas de Alta Velocidad A qué llamamos Alta Velocidad? Obtención, procesado y distribución de la información con rapidez. Por qué Alta Velocidad? Necesidad de comunicaciones rápidas: Mayor Ancho

Más detalles

GRADO EN INGENIERÍA DE COMPUTADORES

GRADO EN INGENIERÍA DE COMPUTADORES GRADO EN INGENIERÍA DE COMPUTADORES Tema 1 Departamento Introducción al de paralelismo Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2015-2016 Tema 1: Introducción Necesidad del procesamiento

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

Programación en Entornos Paralelos: MPI

Programación en Entornos Paralelos: MPI 1-11 Marzo de 2017 FACET -UNT Programación en Entornos Paralelos: MPI Graciela Molina mgracielamolina@gmailcom TRADICIONALMENTE Procesamiento secuencial 2 TRADICIONALMENTE Procesamiento secuencial Si ya

Más detalles

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.

Más detalles

6.1 Base De Datos Centralizada

6.1 Base De Datos Centralizada 6. Infraestructura El tipo de infraestructura o bien arquitectura, se debe de elegir pensando en el sistema a ejecutar, las necesidades que este tendrá, el tipo de usuario que lo utilizará, la seguridad

Más detalles

Arquitecturas: Clusters. Edgar Valderrama Lucio Mederos

Arquitecturas: Clusters. Edgar Valderrama Lucio Mederos Arquitecturas: Clusters Edgar Valderrama Lucio Mederos Qué es un cluster? Es un sistema compuesto por varias computadoras (nodos) unidas por una red que se comporta como una única entidad. De un cluster

Más detalles

Multiprocesadores de Memoria Compartida

Multiprocesadores de Memoria Compartida Arquitectura (10/11) Multiprocesadores Memoria Compartida Características MMC Res Interconexión para MMC Programación MMC Tipos MMC 1 Arquitectura (10/11) Características MMC Prestaciones (MMC) = f (coste

Más detalles

Computación de Altas Prestaciones Sistemas computacionales

Computación de Altas Prestaciones Sistemas computacionales Computación de Altas Prestaciones Sistemas computacionales Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Motivación Problemas

Más detalles

Paralelismo _Arquitectura de Computadoras IS603

Paralelismo _Arquitectura de Computadoras IS603 Paralelismo _Arquitectura de Computadoras IS603 INTRODUCCION El objetivo de esta investigación, es conceptualizar las diferentes tipos de paralelismo referente al área de Arquitectura de Computadoras,

Más detalles

Relación de Ejercicios. Programación Paralela 4º de Grado en Ingeniería Informática.

Relación de Ejercicios. Programación Paralela 4º de Grado en Ingeniería Informática. 1. Por qué el modelo de programación que se sigue al programar con MPI es independiente de la asignación? 2. Describir gráficamente una solución eficiente para realizar una operación de reducción global

Más detalles

Ingeniería en Computación

Ingeniería en Computación Universidad Autónoma del Estado de México Centro Universitario UAEM Valle de México Ingeniería en Computación Unidad de Aprendizaje: Programación Paralela y Distribuida Tema: Introducción a los Sistemas

Más detalles

TEMA 4 PROCESAMIENTO PARALELO

TEMA 4 PROCESAMIENTO PARALELO TEMA 4 PROCESAMIENTO PARALELO Tipos de plataformas de computación paralela Organización lógica Organización física Sistemas de memoria compartida Sistemas de memoria distribuida Tipos de plataformas de

Más detalles

COMPUTACIÓN DE ALTA PERFORMANCE

COMPUTACIÓN DE ALTA PERFORMANCE COMPUTACIÓN DE ALTA PERFORMANCE Curso 2010 Sergio Nesmachnow (sergion@fing.edu.uy) Gerardo Ares (gares@fing.edu.uy) Grupo de Procesamiento Paralelo Aplicado Centro de Cálculo COMPUTACIÓN DE ALTA PERFORMANCE

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Programación Concurrente y Paralela. Unidad 1 Introducción

Programación Concurrente y Paralela. Unidad 1 Introducción Programación Concurrente y Paralela Unidad 1 Introducción Contenido 1.1 Concepto de Concurrencia 1.2 Exclusión Mutua y Sincronización 1.3 Corrección en Sistemas Concurrentes 1.4 Consideraciones sobre el

Más detalles

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología

Más detalles

UNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM

UNIDAD II Metodología de programación paralela. Lic. Jesús Germán Andrés PAUTSCH - FCEQyN - UNaM UNIDAD II Metodología de programación paralela UNIDAD II: Metodología de programación paralela Metodología de programación paralela Algunos conceptos que nos ayudarán a entender mejor el tema. Modelos

Más detalles

SD Examen 2 EVA. 1 of 11 2/5/2013 8:49 PM. Paralelo 1? Evaluaciones? SD Examen 2 EVA. Comenzado: Feb 5 en 8:50pm

SD Examen 2 EVA. 1 of 11 2/5/2013 8:49 PM. Paralelo 1? Evaluaciones? SD Examen 2 EVA. Comenzado: Feb 5 en 8:50pm Paralelo 1? Evaluaciones? SD Examen 2 EVA SD Examen 2 EVA Comenzado: Feb 5 en 8:50pm Question 1: 1 puntos Los [ Seleccionar ] son la union logica de multiples equipos informaticos que funcionan como uno.

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile April 17, 2008 Motivación Programar aplicaciones paralelas no es una tarea trivial. Paralelismo

Más detalles

Computación 1. Roles en la interconexión

Computación 1. Roles en la interconexión Computación 1 Roles en la interconexión Contenido Roles en la Interconexión Host y Terminales Servidores y Clientes Arquitectura Cliente-Servidor Servidor y Cliente son programas Protocolo de Servicio

Más detalles

Arquitectura de computadores I

Arquitectura de computadores I Arquitectura de computadores I Perspectiva de alto nivel de los computadores Septiembre de 2017 Contenido Componentes del computador Funcionamiento del computador Estructuras de interconexión Interconexión

Más detalles

Introducción a los Sistemas Multiprocesadores

Introducción a los Sistemas Multiprocesadores Introducción a los Sistemas Multiprocesadores Multiprocesadores estilo Von Neumann Modelos de Organización Modelos de Programación Clasificación de los Multiprocesadores Por qué Sistemas Multiprocesadores?

Más detalles

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer

Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece. Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Computación de Altas Prestaciones Sin miedo, es más fácil de lo que parece Alex Ramírez Arquitecturas Heterogeneas Barcelona Supercomputing Centrer Supercomputadores 2 Qué es un supercomputador? Top500

Más detalles

Arquitecturas Paralelas: Redes de interconexión y Medición de performance

Arquitecturas Paralelas: Redes de interconexión y Medición de performance Arquitecturas Paralelas: Redes de interconexión y Medición de performance Versión 2014 Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey. Redes de interconexión

Más detalles

Multicomputadores. Características Generales. Redes de Interconexión. Topologías de Interconexión. Estrategias de Conmutación y Control de Flujo

Multicomputadores. Características Generales. Redes de Interconexión. Topologías de Interconexión. Estrategias de Conmutación y Control de Flujo ulticomputadores Características Generales Redes de Interconexión Topologías de Interconexión Estrategias de Conmutación y Control de Flujo Algoritmo de Encaminamiento Organización del Switch Interfaz

Más detalles

Unidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED

Unidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED Unidad IV: Arquitectura de los Sistemas de Bases de Datos (Tema 5) GESTIÓN DE BASES DE DATOS GRADO EN INGENIERÍA INFORMÁTICA UNED Índice 1. Sistemas centralizados 2. Sistemas cliente-servidor 3. Sistema

Más detalles

Introducción al Computo Distribuido

Introducción al Computo Distribuido Introducción al Computo Distribuido Facultad de Cs. de la Computación Juan Carlos Conde Ramírez Distributed Computing Contenido 1 Introducción 2 Importancia del Hardware 3 Importancia del Software 1 /

Más detalles

Entornos de programación paralela basados en modelos/paradigmas

Entornos de programación paralela basados en modelos/paradigmas Program. paralela/distribuida Entornos de programación paralela basados en modelos/paradigmas Sobre la programación paralela 1 Índice Reflexiones sobre la programación paralela MapReduce Propuesta original

Más detalles

MULTIPROCESADORES TIPOS DE PARALELISMO

MULTIPROCESADORES TIPOS DE PARALELISMO Todos los derechos de propiedad intelectual de esta obra pertenecen en exclusiva a la Universidad Europea de Madrid, S.L.U. Queda terminantemente prohibida la reproducción, puesta a disposición del público

Más detalles

Universidad Nacional Autónoma de México Instituto de Geofísica

Universidad Nacional Autónoma de México Instituto de Geofísica Universidad Nacional Autónoma de México Instituto de Geofísica Aplicación del Cómputo Paralelo a la Modelación de Sistemas Continuos en Ciencias e Ingeniería Presentan: Antonio Carrillo Ledesma Ismael

Más detalles

Modelos de Programación Paralela Prof. Gilberto Díaz

Modelos de Programación Paralela Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

INTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr.

INTRODUCCION A LA COMPUTACION PARALELA. 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology. Dr. INTRODUCCION A LA COMPUTACION PARALELA 2nd Workshop: New Frontiers of Bioinformatics in Latin America Gridding Biology Dr. Pablo Guillén Universidad de Los Andes 22-26 de Noviembre de 2004 Qué es el Paralelismo?

Más detalles

Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:

Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías: Taxonomía de las arquitecturas 1 Introducción Introducción En este trabajo se explican en detalle las dos clasificaciones de computadores más conocidas en la actualidad. La primera clasificación, es la

Más detalles

Hoja de respuestas. Examen tipo A

Hoja de respuestas. Examen tipo A Hoja de respuestas. Examen tipo A Cuestiones 1. La memoria virtual nos permite: Emular la RAM mediante la utilización de los dispositivos de almacenamiento Tener una memoria de capacidad infinita en nuestro

Más detalles

Programación Gráfica de Altas Prestaciones

Programación Gráfica de Altas Prestaciones rogramación Gráfica de Altas restaciones lataformas de altas prestaciones para Infomática Gráfica. Máster de Desarrollo de Software Depto. de Lenguajes y Sistemas Informáticos lsi.ugr.es/~jmantas/ga 1.

Más detalles

Taxonomía de las arquitecturas

Taxonomía de las arquitecturas Taxonomía de las arquitecturas 1 INTRODUCCIÓN 2 2 CLASIFICACIÓN DE FLYNN 3 2.1 SISD (SINGLE INSTRUCTION STREAM, SINGLE DATA STREAM) 3 2.2 SIMD (SINGLE INSTRUCTION STREAM, MULTIPLE DATA STREAM) 4 2.2.1

Más detalles

Balance Dinámico de Carga en Super-Cómputo

Balance Dinámico de Carga en Super-Cómputo Balance Dinámico de Carga en Super-Cómputo Dr. Manuel Aguilar Cornejo Presentación elaborada por: Juan Santana Santana 1 Introducción Balance dinámico de carga Librería DLML Algoritmo utilizando una topología

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Evaluación del rendimiento de Algoritmos Paralelos y/o Concurrentes

Evaluación del rendimiento de Algoritmos Paralelos y/o Concurrentes UNIVERSIDAD AMERICANA Programación concurrente Evaluación del rendimiento de Algoritmos Paralelos y/o Concurrentes Recopilación de teoría referente a la materia Ing. Luis Müller 2011 Esta es una recopilación

Más detalles

PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela

PROGRAMACIÓN PARALELA. Modelos de programación paralela Paradigmas de programación paralela PROGRAMACIÓN PARALELA Modelos de programación paralela Paradigmas de programación paralela Tipos de paralelismo Paso de mensajes Paralelismo de datos Memoria compartida Paradigmas de programación paralela

Más detalles

Arquitectura de Computadoras

Arquitectura de Computadoras Arquitectura de Computadoras Arquitecturas Von Neumann Harvard Otras (Multiprocesador, Sistemas distribuidos) Arquitectura de Computadores Corresponde a la estructura, organización, e interconexión de

Más detalles

Topologías de Red. Hosts:

Topologías de Red. Hosts: La topología define la estructura de una red, dependiendo de la topología será la distribución física de la red y dispositivos conectados a la misma, así como también las características de ciertos aspectos

Más detalles

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I)

TEMA 1: EJECUCIÓN PARALELA: FUNDAMENTOS(I) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez.

Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez. Paralelismo Conceptos generales Ejecución serial: las tareas/instrucciones de un programa son ejecutadas de manera secuencial, una a la vez. Ejecución paralela: varias tareas/instrucciones de un programa

Más detalles

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR

CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA. Autor ERIKA VIVIANA RIAÑO BEJAR CARACTERIZACION DE PROBLEMAS A SOLUCIONAR MEDIANTE PROGRAMACIÓN MULTIPROCESO DE MEMORIA COMPARTIDA Autor ERIKA VIVIANA RIAÑO BEJAR Director JOSE ORLANDO MALDONADO BAUTISTA DEPARTAMENTO DE INGENIERÍAS ELÉCTRICA

Más detalles

Rendimiento y sus factores

Rendimiento y sus factores Rendimiento y sus factores Rendimiento 1. m. Producto o utilidad que rinde o da alguien o algo. 2. m. Proporción entre el producto o el resultado obtenido y los medios utilizados. Real Academia Española

Más detalles

Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas

Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Tema 7. Mejora del rendimiento: introducción a la segmentación y a las arquitecturas paralelas Arquitectura de Computadores Curso 2009-2010 Transparencia: 2 / 21 Índice Introducción Taxonomía de Flynn

Más detalles

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización:

PROGRAMA DE ESTUDIO Área de Formación : Fecha de elaboración: 28 de mayo de 2010 Fecha de última actualización: PROGRAMA DE ESTUDIO Programa Educativo: Área de Formación : Licenciatura en Sistemas Computacionales Integral profesional Horas teóricas: 2 Horas prácticas: 2 Total de Horas: 4 Cómputo paralelo Total de

Más detalles

Cómputo Paralelo en Redes Locales de Computadoras

Cómputo Paralelo en Redes Locales de Computadoras Cómputo Paralelo en Redes Locales de Computadoras Departament d Informàtica Unitat d Arquitectura d Ordinadors i Sistemes Operatius Memoria presentada por Fernando G. Tinetti para optar al grado de Doctor

Más detalles

Tutorías con Grupos Reducidos (TGR) Parte 1: Evaluación de prestaciones

Tutorías con Grupos Reducidos (TGR) Parte 1: Evaluación de prestaciones Tutorías con Grupos Reducidos (TGR) Parte 1: Evaluación de prestaciones ESTRUCTURA DE COMPUTADORES Grupo de Arquitectura de Computadores (GAC) Dyer Rolán García (GAC) Evaluación de Prestaciones Curso 2011/2012

Más detalles

Taller de Programación Paralela

Taller de Programación Paralela Taller de Programación Paralela Departamento de Ingeniería Informática Universidad de Santiago de Chile March 17, 2008 Qué es paralelismo? Una estrategia compuesta de elementos de hardware y software para

Más detalles

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción

Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso Presentación e introducción Diseño de Sistemas Distribuidos Máster en Ciencia y Tecnología Informática Curso 2016-2017 Presentación e introducción Félix García Carballeira Grupo de Aruitectura de Computadores felix.garcia@uc3m.es

Más detalles

Diseño de Algoritmos Paralelos Prof. Gilberto Díaz

Diseño de Algoritmos Paralelos Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Diseño de Algoritmos Paralelos Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Introducción a los Sistemas Operativos y Redes. Clase 2: Topologías de Redes

Introducción a los Sistemas Operativos y Redes. Clase 2: Topologías de Redes Introducción a los Sistemas Operativos y Redes Clase 2: Topologías de Redes Introducción a los Sistemas Operativos y Redes Topologías de Red: Topología Física. Topología Lógica. Hardware de Red. Medios

Más detalles

Modelado de los computadores paralelos

Modelado de los computadores paralelos Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente

Más detalles

ARQUITECTURA DEL COMPUTADOR

ARQUITECTURA DEL COMPUTADOR 1-11 Marzo de 2017 FACET -UNT ARQUITECTURA DEL COMPUTADOR Graciela Molina gmolina@herrera.unt.edu.ar m.graciela.molina@gmail.com 1 MODELO VON NEUMANN RAM J. Von Neumann frente a la computadora IAS, 1952.

Más detalles

ALGORITMO DE COMPRESIÓN DE HUFFMAN PARA PLATAFORMAS DISTRIBUIDAS IMPLEMENTADO EN CLUSTER BASADO EN MPI

ALGORITMO DE COMPRESIÓN DE HUFFMAN PARA PLATAFORMAS DISTRIBUIDAS IMPLEMENTADO EN CLUSTER BASADO EN MPI ALGORITMO DE COMPRESIÓN DE HUFFMAN PARA PLATAFORMAS DISTRIBUIDAS IMPLEMENTADO EN CLUSTER BASADO EN MPI Rincón Carlos, Urdaneta Jesús, Leal Aurely, Acurero Alfredo y Bracho David. Departamento de Computación,

Más detalles

Diagrama de despliegue

Diagrama de despliegue Diagrama de despliegue Definición.- Los Diagramas de Despliegue muestran las relaciones físicas de los distintos nodos que componen un sistema y el reparto de los componentes sobre dichos nodos. La vista

Más detalles

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES

José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES José Matías Cutillas Lozano PROGRAMACIÓN PARALELA Y COMPUTACIÓN DE ALTAS PRESTACIONES MÁSTER EN NUEVAS TECNOLOGÍAS EN INFORMÁTICA Diciembre 2010 Introducción Por qué utilizar Matlab paralelo? MATLAB es

Más detalles

Computación de Altas Prestaciones Sistemas computacionales

Computación de Altas Prestaciones Sistemas computacionales Computación de Altas restaciones Sistemas computacionales Javier Cuenca, Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Francisco

Más detalles

TEMA 2: DEFINICIONES Y CONCEPTOS. Ing. Jonathan Quiroga Tinoco Conalep Tehuacán P.T.B. en SOMA

TEMA 2: DEFINICIONES Y CONCEPTOS. Ing. Jonathan Quiroga Tinoco Conalep Tehuacán P.T.B. en SOMA TEMA 2: DEFINICIONES Y CONCEPTOS Ing. Jonathan Quiroga Tinoco Conalep Tehuacán P.T.B. en SOMA RED (MODELO DE INTERCONEXIÓN DE SISTEMAS ABIERTOS) (ORGANIZACIÓN INTERNACIONAL DE ESTÁNDARES) Aplicación Presentación

Más detalles

Clasificación de Flynn de los computadores

Clasificación de Flynn de los computadores Clasificación de Flynn de los computadores Single instruction, single data stream - SISD Single instruction, multiple data stream - SIMD Multiple instruction, single data stream - MISD Multiple instruction,

Más detalles

COMUNICACIONES TRANSMISIÓN DE DATOS REDES DE ORDENADORES INTERNET. Sistemas de transmisión de datos

COMUNICACIONES TRANSMISIÓN DE DATOS REDES DE ORDENADORES INTERNET. Sistemas de transmisión de datos COMUNICACIONES TRANSMISIÓN DE DATOS REDES DE ORDENADORES INTERNET Sistemas de transmisión de datos Transmisión en serie: Los bits de cada palabra se transfieren secuencialmente por una única línea de datos

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Arquitectura de Computadoras para Ingeniería

Arquitectura de Computadoras para Ingeniería Arquitectura de Computadoras para Ingeniería (Cód. 7526) 1 Cuatrimestre 2016 Dra. DCIC - UNS 1 Multiprocesadores 2 Clasificación de Flynn Clasificación de 1966 En función del flujo de instrucciones y datos

Más detalles

Plataformas paralelas

Plataformas paralelas Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados

Más detalles

Programa. Conjunto de elementos que interaccionan con una computadora ofreciendo una salida a una entrada ( programa ).

Programa. Conjunto de elementos que interaccionan con una computadora ofreciendo una salida a una entrada ( programa ). Tema 2: Sistemas Computacionales Conjunto de elementos que interaccionan con una computadora ofreciendo una salida a una entrada ( programa ). Programa Input Condiciones del problema Output Solución del

Más detalles

Arquitectura de Computadores (obligatoria)

Arquitectura de Computadores (obligatoria) Arquitectura de Computadores (obligatoria) Profesores responsables: Pau Micó Tormos (teoría y prácticas) Despacho: F4D1 Créditos: 6 (4.5 Teoría + 1.5 Prácticas) Semestre: 3A Número de grupos de aula: 1

Más detalles

TIPOS DE REDES Y TOPOLOGIAS

TIPOS DE REDES Y TOPOLOGIAS TIPOS DE REDES Y TOPOLOGIAS 1 Concepto Una Red es un conjunto de ordenadores interconectados entre si mediante cable o por otros medios inalámbricos. 2 Objetivos Compartir recursos: archivos, impresoras,

Más detalles

Antonio Carrillo Ledesma Ismael Herrera Revilla

Antonio Carrillo Ledesma Ismael Herrera Revilla Universidad Nacional Autónoma de México Instituto de Geofísica Aplicación del Cómputo Paralelo a la Modelación de Sistemas Continuos en Ciencias e Ingeniería Mediante el Método FETI Dual-Primal Presentan:

Más detalles

ARQUITECTURA DE VON NEUMANN Y HARVARD

ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA VON NEUMANN En esta arquitectura se observa que las computadoras utilizan el mismo dispositivo de almacenamiento para datos e instrucciones conectados

Más detalles

Facultad de Ingeniería Industrial y de Sistemas v1.0 MA781U PROCESOS DISTRIBUIDOS

Facultad de Ingeniería Industrial y de Sistemas v1.0 MA781U PROCESOS DISTRIBUIDOS PROCESOS DISTRIBUIDOS Preparado por: Angel Chata Tintaya (angelchata@hotmail.com) Resumen El proceso cliente servidor es la clave para comprender el potencial de los sistemas de información y las redes

Más detalles

1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos

1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos Tema 5: Sistemas Operativos Distribuidos 1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño 1 1. Introducción Sistema Informático Distribuido: Colección de S.I. autónomos

Más detalles

TEMA 2: PROGRAMACIÓN PARALELA (Y III)

TEMA 2: PROGRAMACIÓN PARALELA (Y III) Grupo de Arquitectura de Computadores, Comunicaciones y Sistemas ARQUITECTURA DE COMPUTADORES II AUTORES: David Expósito Singh Florin Isaila Daniel Higuero Alonso-Mardones Javier García Blas Borja Bergua

Más detalles

Universidad de Los Andes Facultad de Ciencia Forestales y Ambientales Escuela de Ingeniería Forestal

Universidad de Los Andes Facultad de Ciencia Forestales y Ambientales Escuela de Ingeniería Forestal Universidad de Los Andes Facultad de Ciencia Forestales y Ambientales Escuela de Ingeniería Forestal Redes Tema5. Informática. Régimen Anualidad Prof. Kuong-F Chang. Mérida, Marzo 2016 Redes Concepto Una

Más detalles

Programa Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO

Programa Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO Programa Educativo: Licenciatura en Sistemas PROGRAMA DE ESTUDIO Computacionales Área de Formación : Sustantiva Profesional Horas teóricas: 4 Horas prácticas: 0 Total de Horas: 4 Arquitectura de computadoras

Más detalles

Ingeniería en computación Tipos de sistemas operativos

Ingeniería en computación Tipos de sistemas operativos Ingeniería en computación Tipos de sistemas operativos Unidad de competencia III: Sistemas Operativos Distribuidos Ing. Diego Armando Ramírez Avelino 17/10/2017 1 Unidad de competencia I Objetivo Entender

Más detalles

HERRAMIENTAS SOFTWARE PARA SISTEMAS DISTRIBUIDOS

HERRAMIENTAS SOFTWARE PARA SISTEMAS DISTRIBUIDOS HERRAMIENTAS SOFTWARE PARA SISTEMAS DISTRIBUIDOS José Luis Pastrana Brincones (pastrana@lcc.uma.es) Departamento de Lenguajes y Ciencias de la Computación de la Universidad de Málaga Introducción. El hombre,

Más detalles

Miguel Hermanns. 19 de abril de 2007

Miguel Hermanns. 19 de abril de 2007 Universidad Politécnica de Madrid, España 19 de abril de 2007 Estructura de la clase 1 Motivación de la paralela 2 3 4 paralela 5 Conceptos generales y habitual 6 7 Qué es el cálculo en paralelo? Tradicionalmente

Más detalles

Introducción a las Computadoras. Capítulo 3 Buses del Sistema

Introducción a las Computadoras. Capítulo 3 Buses del Sistema Introducción a las Computadoras Capítulo 3 Buses del Sistema Concepto de Programa Los sistemas de propósito específico no son flexibles El Hardware de propósito general puede realizar diferentes tareas,

Más detalles

Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo

Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo 1/41 Servet: una suite de benchmarks para el soporte del autotuning en clusters de sistemas multinúcleo Jorge González-Domínguez*, Guillermo L. Taboada, Basilio B. Fraguela, María J. Martín, Juan Touriño

Más detalles

MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML

MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML INGENIERÍA DE SOFTWARE II MÓDULO 1.4 ARQUITECTURA DE SOFTWARE CON UML Gabriel Tamura gtamura@icesi.edu.co Cali, 2008 Arquitectura de Software con UML PROGRAMA 1. Motivación 2. La Taxonomía de Flynn 3.

Más detalles

ESCUELA DE INGENIERIA Informática Y Sistemas

ESCUELA DE INGENIERIA Informática Y Sistemas ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN

Más detalles

AURELIO CHÁVEZ ACHA. Clasificación de redes de acuerdo a topología

AURELIO CHÁVEZ ACHA. Clasificación de redes de acuerdo a topología AURELIO CHÁVEZ ACHA Clasificación de redes de acuerdo a topología La topología de redes es la forma física o lógica de como se encuentran conectados los dispositivos en una red. La topología esta definida

Más detalles

Soluciones a ejercicios de Fundamentos

Soluciones a ejercicios de Fundamentos Soluciones a ejercicios de Fundamentos J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores Grupo ARCOS

Más detalles

Introduccion a Sistemas Operativos. Ej: Linux

Introduccion a Sistemas Operativos. Ej: Linux Universidad Nacional de Ingeniería Facultad de Ciencias Física Computacional CC063 Introduccion a Sistemas Operativos. Ej: Linux Prof: J. Solano 2012-I Resumen Qué hacen los sistemas operativos? Organización

Más detalles

Tema III: Componentes de un Sistema Operativo

Tema III: Componentes de un Sistema Operativo Tema III: Componentes de un Sistema Operativo Concepto de proceso Jerarquía de memoria: Concepto de memoria cache Memoria virtual Partición Sistema de ficheros Sistema de entrada/salida: Driver y controladora

Más detalles

GRADUADO EN INGENIERÍA DE COMPUTADORES - FICHA TÉCNICA

GRADUADO EN INGENIERÍA DE COMPUTADORES - FICHA TÉCNICA GRADUADO EN INGENIERÍA DE COMPUTADORES - FICHA TÉCNICA DATOS DESCRIPTIVOS ASIGNATURA: Procesamiento Paralelo Nombre en inglés: Parallel Processing MATERIA: Algorítmica y complejidad Créditos Europeos:

Más detalles

Sistemas Operativos Distribuidos

Sistemas Operativos Distribuidos Contenidos del Tema Gestión de procesos Modelos de sistema Asignación de procesadores Estrategias dinámicas Estrategias estáticas Ejecución remota de procesos Modelos de sistema Organización de los procesadores

Más detalles