Arquitecturas Paralelas Introducción

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Arquitecturas Paralelas Introducción"

Transcripción

1 Arquitecturas Paralelas Introducción William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización de Computadoras 4ta. ed., Capítulo 8: Arquitecturas de computadoras paralelas. Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey.

2 Contexto El paralelismo, en todas sus formas, es el tema central de la asignatura. En la primer mitad del curso se presentaron varios aspectos de los diseños de procesadores que involucran el concepto de paralelismo, entendido como ejecución simultánea: Segmentación y supersegmentación del ciclo de instrucción y de las unidades funcionales. Arquitecturas superescalares y duplicación de recursos. Arquitecturas de palabra ancha. Arquitecturas vectoriales. NOTA: Otra forma de simultaneidad: Multitareas. Varios procesos comparten una CPU [OS] Timesharing vs. real-time.

3 Contexto Paralelismo a nivel de instrucciones (ILP) Existe ILP cuando las instrucciones que componen un programa son independientes. En ese caso el código puede ser reordenado sin alterar el resultado. Por lo tanto existe la posibilidad de ejecutar las instrucciones en paralelo. Las dependencias de datos son críticas en este contexto. Ejemplo operaciones independientes: for(i=0;i<1000;i++) x[i]=x[i]+y[i]; Ejemplo operaciones dependientes: for(i=1;i<1000;i++) x[i]=(x[i]+x[i-1])/2; Paralelismo de la máquina (MLP) Es una medida de la capacidad del procesador para sacar partido del ILP. Depende del número de instrucciones que puedan captarse y ejecutarse simultáneamente (número de cauces paralelos). Existen dos aproximaciones: Scheduling Dinámico (HW): P4, UltraSPARCIII. SUPERESCALAR. Paralelismo implícito. Scheduling Estático (SW): IA-64, Transmeta. VLIW. Paralelismo explícito. El punto es detectar el ILP y explotarlo con MLP Alteramos la secuencialidad de las instrucciones del programa

4 Contexto Se presentaron los limites para la construcción de procesadores: La disipación de potencia limita el tamaño de los transistores La velocidad de la luz limita la velocidad de reloj Utilizando diseños RISC profundamente segmentados con características superescalares, puede conseguirse hasta un factor 10 de aceleración respecto de los diseños tradicionales, pero no más que eso. Pero qué sucede si una aplicación necesita instrucciones por segundo? Puede especularse sobre la futura existencia de un período de reloj de ns? Casi imposible (la luz recorre 0.3 mm en 1 ps). Puede pensarse en 1000 computadoras de 1 ns trabajando simultáneamente? Puede ser... Si se desea un factor 1000 no alcanza con extender el concepto superescalar, agregando unidades funcionales, o pensar en aumentar 1000 veces la frecuencia de trabajo. La única solución es repetir CPUs enteras y lograr una colaboración eficiente entre ellas.

5 Contexto Avances importantes en microprocesadores desde von Neumann (1950) Unidad de control microprogramada y el concepto de familia (1964) Compatibilidad ISA con diferentes implementaciones [IBM 360]. Memoria cache (1968) [IBM 360]. Arquitecturas RISC (1982) Involucra la mayoría de los asuntos importantes de arquitectura y organización: Segmentación de cauce (pipeline) y diseño superescalar. No existe en la actualidad una tecnología que haga prever un impacto semejante. Múltiples procesadores?

6 Motivación Las computadoras con una única CPU no son suficientes para satisfacer los requerimientos de algunas áreas de aplicación, a pesar de los avances tecnológicos y arquitectónicos de los procesadores modernos. Simulaciones y modelado de sistemas complicados. Problemas que dependan de la manipulación/cómputo de grandes cantidades de datos Los grandes problemas físicos, económicos, biológicos, climatológicos. Estas aplicaciones se caracterizan por manejar cantidades enormes de datos y/o realizar grandes cantidades de cálculos numéricos. Grand Challenge Problems (los grandes desafíos) Problemas que tienen solución, pero que no pueden resolverse en una cantidad de tiempo razonable utilizando las computadoras actuales. Dinámica de fluídos, modelado ambiental, biología molecular. Ejemplo: pronostico meteorológico. Una posible solución para las necesidades de alta performance es utilizar sistemas con varias CPUs para resolver una determinada aplicación.

7 Procesamiento paralelo Arquitectura paralela Sistema con dos o mas procesadores conectados de tal manera que les sea posible compartir la ejecución de una determinada tarea (realizar procesamiento paralelo). Existen diversas organizaciones, según: Número y complejidad de las CPUs utilizadas. Disponibilidad de memoria compartida. Topología de interconexión. Dispositivos de E/S.

8 Paralelización de programas La estrategia para la construcción de un programa paralelo (paralelización) consiste en descomponer el problema en tareas de menor complejidad que puedan ejecutarse simultáneamente. El paralelismo se consigue: Descomponiendo el problema en tareas menores. Asignando las tareas a procesadores que puedan ejecutar en paralelo. Coordinando las tareas simultáneas. Analogía con la industria automotriz y otros problemas complejos.

9 Programas paralelos - Condiciones Se necesitan dos condiciones en los programas de aplicación para hacer un uso eficiente de los procesadores: 1) Poca comunicación entre los procesadores mientras ejecutan la tarea compartida. 2) Un cierto grado de paralelismo inherente en la tarea a realizar. Generalmente, la resolución de un problema puede ser dividida en tareas de menor complejidad, las cuales pueden ser ejecutadas simultáneamente con una cierta coordinación. Pero puede suceder que el esfuerzo de coordinación supere los beneficios del procesamiento simultáneo. No todas las aplicaciones se benefician Problemas Embarrassingly parallel Problemas en los cuales no hay que hacer ningún esfuerzo para paralelizar, pues no existe comunicación entre procesadores. Fractales (cada punto puede calcularse en forma independiente) Animación (cada cuadro se renderiza en forma independiente de los demás) Simulaciones y reconstrucciones en física de partículas.

10 Programas paralelos - Ejemplos for(i=0;i<n;i++){ x=rand()/rand_max; y=rand()/rand_max; r=sqrt(x*x+y*y); if(r<=1.0) m++; } pi=4*m/n; El método Montecarlo: método estadístico numérico utilizado para aproximar expresiones complejas o costosas. Se basa en el muestreo aleatorio (o pseudoaleatorio en el caso de las computadoras). a) Cálculo de π (distribución de tareas) b) Ordenamiento paralelo (distribución de datos)

11 Tipos de paralelismo PARALELISMO EN LOS DATOS Diferentes datos, misma tarea (SIMD) program:... if CPU="a" then low_limit=1 upper_limit=50 else if CPU="b" then low_limit=51 upper_limit=100 end if do i = low_limit, upper_limit Task on d(i) end do... end program PARALELISMO EN LAS TAREAS Diferentes datos, diferentes tareas (MIMD) program:... if CPU="a" then do task "A" else if CPU="b" then do task "B" end if... end program

12 Organización Clasificación de Flynn (1972) Clasificación histórica, basada en la naturaleza ortogonal del flujo de instrucciones ejecutado por la computadora (I) y el flujo de datos sobre los cuales operan las instrucciones (D). Massively Parallel Processor (MPP)

13

14 (Tanenbaum)

15 Arquitecturas SISD Single Instruction stream, Single Data stream. Arquitectura tradicional escalar de von Neumann, estudiada hasta este momento. Cada instrucción opera sobre un único dato. Puede existir paralelismo: segmentación, superescalares y unidades vectoriales.

16 Arquitecturas SIMD Single Instruction stream, Multiple Data stream Constan de una única unidad de control y múltiples unidades idénticas de procesamiento que realizan la misma instrucción al unísono. Llamados también Array Processors (no confundir con vectoriales). Especializados en problemas numéricos que puedan expresarse como matrices o vectores. Cada unidad de procesamiento consta de una ALU y registros, y se utiliza para computar un elemento del resultado (front-end von Neumann, más un array de procesadores idénticos que realizan la misma instrucción).

17 Arquitecturas SIMD Single Instruction stream, Multiple Data stream Pueden utilizar memoria compartida o distribuida. Ejemplo: ILLIAC IV (1970s), 64 procesadores conectados en una grilla de 8x8. CM-2 (1990s) de Connection Machines (RIP), procesadores conectados en hipercubo.

18 Arquitecturas MIMD Multiple Instruction stream, Multiple Data stream Son las arquitecturas paralelas propiamente dichas. Pueden ser con memoria compartida (multiprocesadores) o memoria distribuida (multicomputadoras). Cada unidad de procesamiento tiene su propio flujo de instrucciones.

19 MIMD: Multiprocesadores Procesadores fuertemente acoplados Existe un único espacio de direccionamiento. La comunicación entre procesadores se realiza a través de la memoria compartida. Desde el punto de vista del programador se trata de variables globales. Los programas son fáciles de escribir, La performance de la memoria limita el número de procesadores (crítico). IBM System/370, 2 CPUs (1970) IBM System/390, múltiple (1990) Cray X-MP/Y-MP Cray 3 (16 proc vect) Intel Pentium D: 2xP4 en bus sin HT L1:16K+16K, L2:1M+1M IBM POWER5 (2004) COHERENCIA DE CACHE

20 MIMD: Multicomputadoras Procesadores débilmente acoplados Cada CPU tiene su propia memoria, invisible para la demás. La comunicación entre procesadores se realiza a través de un mecanismo de pasaje de mensajes. Desde el punto de vista del programador no existen las variables globales, sino canales de comunicación y operaciones de envío y recepción, que deben programarse en forma explícita. La performance de la red de interconexión limita el número de procesadores. Depende mucho del tipo de aplicación. Intel ipsc/2 (1989) [128 proc 80386, hipercubo] Intel Paragon (1991) [2000 proc i860, mesh] Cray T3E MC512 (1995) [512 proc Alpha 3d-mesh] Beowulf Clusters, NOW ROUTING DE MENSAJES

21 Redes de interconexión para arquitecturas paralelas Pueden clasificarse según diferentes criterios: Modo de operación: sincrónico vs. asincrónico. Estrategia de control: centralizado vs. descentralizado. Técnica de conmutación: circuitos vs. conmutación de paquetes. Topología: cómo se conectan procesadores y memorias entre sí. Balance entre performance (ancho de banda) y costo.

22 Redes de interconexión Topologías para memoria compartida a) Bus b) Conmutada

23 Redes de interconexión Topologías para memoria compartida CROSSBAR El routing dinámico se consigue utilizando redes de conmutación compuestas por crossbar switches o 2x2 switches. Las redes crossbar son no bloqueantes (permiten varias conexiones simultáneas) pero necesitan gran cantidad de switches (N 2 para N nodos).

24 Redes de interconexión Topologías para memoria compartida OMEGA Las redes de interconexión multietapa son las más avanzadas entre las redes actuales de conmutación. En el caso de la red omega, para conectar N nodos se necesitan log 2 N etapas con N/2 switches 2x2 cada una.

25 Redes de interconexión Topologías para memoria compartida Sumario Ventajas y desventajas de las diferentes topologías: Las redes tipo bus son económicas pero pueden transformarse en el cuello de botella del sistema. Los buses paralelos mejoran la performance, pero son costosos. Las redes crossbar son no bloqueantes, pero requieren un gran número de switches. Las redes omega son bloqueantes en menor grado. Presentan mejor performance que los buses y son más económicas que las crossbar.

26 Redes de interconexión Topologías para pasaje de mensajes I) Estáticas (pizarrón) II) Dinámicas 4

27 Redes de interconexión Topologías para pasaje de mensajes 10-cube 4-cube

28 Análisis de performance en Arquitecturas Paralelas Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey. Capítulo 3 completo. Peak rate (no muy útil, marketing) Mejora y Eficiencia [S=Ts/Tp, ξ=s/n] Equal duration model: caso ideal [S=n, ξ=1] Serial section model: ley de Amdahl [S=n/(f(n-1)+1)] Amdahl vs. Gustafson-Barsis [SS=n-f(n-1)] Efecto del tiempo de comunicación [S=Ts/(Tp+Tc), fc=ntc/ts] Escalabilidad

29 Definición de mejora y eficiencia S= t s t m ξ= S n Equal duration model ξ= 1 Fractional communication overhead

30 Serial section model

31

32 Serial section model with communication overhead

33 Amdhal vs. Gustafson-Barsis Algunos problemas no se comportan en forma tan pesimista como predice Amdhal. A veces el tamaño del problema escala con el número SS n de procesadores. SS(f) es una recta y no presenta el límite en 1/f. Es como si f se fuera achicando, en proporción, al aumentar el orden del problema (en la práctica sucede) 1 SS ( n )= f+(1 f ) n f+ (1 f ) n n lim SS (n ) n = 1 f Métrica de Karp-Flatt Despejando f de Amdhal y midiendo la aceleración S que se obtiene para un dado problema (utilizando n procesadores), resulta que f es una medida experimental de cuán paralelizable es el problema. Puede utilizarse para predecir cómo se comportará el sistema al variar el número de procesadores). f= 1 S + 1 n 1 1 n

34 S vs. f gnuplot> plot [x=0:1] [0:10] 5/(x*4+1) title "Amdahl n=5", 10/(x*9+1) title "Amdahl n=10", 100/(x*99+1) title "Amdahl n=100",1/x title "Amdahl n=oo", 5-(x*4) title "Gustafson n=5", 10-(x*9) title "Gustafson n=10", 100-(x*99) title "Gustafson n=100"

35 Escalabilidad Ejemplo: Hipercubo de D dimensiones (n=2 D, dist max D=log2(n)), utilizado para realizar la suma de m números. Mejora (hacia 4): escalable S= m m n +2log 2 n Es escalable si habiendo agregado nodos la eficiencia se mantiene cte al aumentar m

36 for m=1:8, for n=1:8, N=2^n; M=2^(m+5); S(m,n)=M/(M/N+log2(N)); E(m,n)=S(m,n)/N; end end surf(s); % ver que en la diagonal se vaya duplicando ylabel('m: orden 2^(m+5)'); xlabel('n: nodos 2^n'); zlabel('mejora');

37 for m=1:8, for n=1:8, N=2^n; M=2^(m+5); S(m,n)=M/(M/N+log2(N)); E(m,n)=S(m,n)/N; end end surf(e); % ver que la diagonal se mantenga constante ylabel('m: orden 2^(m+5)'); xlabel('n: nodos 2^n'); zlabel('eficiencia');

38 Escalabilidad El grado de escalabilidad de un sistema paralelo se determina por la relación en que el problema debe incrementarse respecto del número de procesadores (n), para mantener una eficiencia constante cuando el número de procesadores aumenta. Por ejemplo, en un sistema paralelo altamente escalable el tamaño del problema deberá crecer linealmente con respecto de n a fin de mantener la eficiencia constante. En un sistema poco escalable el tamaño del problema necesitará crecer exponencialmente con respecto de n para mantener la eficiencia constante.

39 Sumario Taxonomía de Flynn SISD: Single Processor, von Neumann SIMD: Array Processors MISD:???? MIMD: Memoria compartida: Multiprocesadores (SMP y NUMA) Memoria distribuida: Multicomputadoras (MPP y Clusters)

40 Sumario Taxonomía de Flynn

41 Sumario Las arquitecturas para procesamiento paralelo, en sus diversas variantes, son el tema central de la materia. Las técnicas superescalares y de segmentación utilizan conceptos de paralelismo con el objetivo de incrementar el desempeño de los diseños clásicos. Estas encuentran rápidamente limitaciones prácticas en el momento de la implementación. Existen problemas que no pueden solucionarse utilizando un único procesador, dado el actual estado de la tecnología, por lo que se presenta la necesidad de utilizar varios de ellos trabajando en forma coordinada. Pero no todos los problemas pueden sacar partido de esta estrategia. Los programas deben cumplir con algunas condiciones. Existen dos tipos de organizaciones con diferentes objetivos: los diseños SIMD explotan el paralelismo en los datos, y los MIMD el paralelismo en las instrucciones. Estos últimos se dividen en multiprocesadores y multicomputadoras, según dispongan o no de memoria compartida. Estas son las dos grandes categorías actuales de arquitectutas paralelas. Ambas utilizan modelos de programación diferentes. Los grandes sistemas de cómputo utilizan hoy una combinación de ambas arquitecturas.

Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:

Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías: Taxonomía de las arquitecturas 1 Introducción Introducción En este trabajo se explican en detalle las dos clasificaciones de computadores más conocidas en la actualidad. La primera clasificación, es la

Más detalles

Arquitecturas vectoriales, SIMD y extensiones multimedia

Arquitecturas vectoriales, SIMD y extensiones multimedia Arquitecturas vectoriales, SIMD y extensiones multimedia William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización

Más detalles

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo

Arquitectura de Computadoras. Clase 9 Procesamiento paralelo Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.

Más detalles

07 y 08 Sistemas distribuidos y paralelos y tarea 02

07 y 08 Sistemas distribuidos y paralelos y tarea 02 07 y 08 Sistemas distribuidos y paralelos y tarea 02 Prof. Edgardo Adrián Franco Martínez http://computacion.cs.cinvestav.mx/~efranco efranco.docencia@gmail.com Estructuras de datos (Prof. Edgardo A. Franco)

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Procesamiento Paralelo

Procesamiento Paralelo Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar

Más detalles

Computación de Alta Performance Curso 2009 ARQUITECTURAS PARALELAS ARQUITECTURAS PARALELAS

Computación de Alta Performance Curso 2009 ARQUITECTURAS PARALELAS ARQUITECTURAS PARALELAS Computación de Alta Performance Curso 2009 CONTENIDO Arquitecturas secuenciales y paralelas. Clasificación de Flynn. Modelo SIMD. GPUs. Modelo SISD. Modelo SIMD. Arquitectura MIMD MIMD con memoria compartida.

Más detalles

EVOLUCIÓN DE LOS PROCESADORES

EVOLUCIÓN DE LOS PROCESADORES EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora

Más detalles

Programación Concurrente y Paralela. Unidad 1 Introducción

Programación Concurrente y Paralela. Unidad 1 Introducción Programación Concurrente y Paralela Unidad 1 Introducción Contenido 1.1 Concepto de Concurrencia 1.2 Exclusión Mutua y Sincronización 1.3 Corrección en Sistemas Concurrentes 1.4 Consideraciones sobre el

Más detalles

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS

TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores

Más detalles

Conceptos básicos de procesamiento paralelo (1)

Conceptos básicos de procesamiento paralelo (1) Conceptos básicos de procesamiento paralelo (1) Paralelismo: En un sistema computador hay paralelismo cuando, al menos, durante algunos instantes de tiempo ocurren varios eventos similares Ejecución concurrente

Más detalles

Departamento de Automática

Departamento de Automática Departamento de Automática Tema 1 Introducción al paralelismo Prof. Dr. José Antonio de Frutos Redondo Dr. Raúl Durán Díaz Curso 2010-2011 Tema 1: Introducción Necesidad del paralelismo Rendimiento de

Más detalles

Modelos de computadores paralelos

Modelos de computadores paralelos Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos

Más detalles

Tema 2. Arquitectura de CPU avanzadas 15/03/2011

Tema 2. Arquitectura de CPU avanzadas 15/03/2011 Tema 2. Arquitectura de CPU avanzadas. Juegos CISC y RISC. Proceso paralelo. Procesadores escalares y vectoriales. Segmentación. Caches multinivel. Índice Introducción... 1 Procesadores CISC y RISC...

Más detalles

ARQUITECTURAS PARA PROCESAMIENTO PARALELO

ARQUITECTURAS PARA PROCESAMIENTO PARALELO 1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes

Más detalles

Introducción a las arquitecturas paralelas

Introducción a las arquitecturas paralelas Capítulo 4 Introducción a las arquitecturas paralelas Hasta este momento se ha estudiado el procesamiento a nivel del procesador. Se ha visto ya que la segmentación es un primer mecanismo de paralelismo,

Más detalles

Trabajo de investigación Paralelismo en el procesador

Trabajo de investigación Paralelismo en el procesador Universidad Nacional Autónoma de Honduras Facultad de Ingeniería Departamento de Ingeniería en Sistemas Trabajo de investigación Paralelismo en el procesador Saúl Armando Laínez Girón 20101006758 IS603

Más detalles

GRADO EN INGENIERÍA DE COMPUTADORES

GRADO EN INGENIERÍA DE COMPUTADORES GRADO EN INGENIERÍA DE COMPUTADORES Departamento Arquitecturas de Paralelas Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2013-2014 Tema 4. Arquitecturas Paralelas Arquitecturas paralelas.

Más detalles

Unidad 4 - Procesamiento paralelo. Arquitectura de computadoras. D o c e n t e : E r n e s t o L e a l. E q u i p o : J e s s i c a F i e r r o

Unidad 4 - Procesamiento paralelo. Arquitectura de computadoras. D o c e n t e : E r n e s t o L e a l. E q u i p o : J e s s i c a F i e r r o Unidad 4 - Procesamiento paralelo. D o c e n t e : E r n e s t o L e a l E q u i p o : J e s s i c a F i e r r o L u i s N a v e j a s Arquitectura de computadoras Introducción Cuestionario Conclusiones

Más detalles

Lusitania. Pensando en Paralelo. César Gómez Martín

Lusitania. Pensando en Paralelo. César Gómez Martín Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de

Más detalles

Arquitectura de Computadores

Arquitectura de Computadores Arquitectura de Computadores Departament d Informàtica de Sistemes i Computadors E.P.S.Alcoi 1 Bloque Temático II: Arquitectura de Computadores Tema 3: Introducción a la arquitectura de un computador Tema

Más detalles

ARQUITECTURA DE VON NEUMANN Y HARVARD

ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA VON NEUMANN En esta arquitectura se observa que las computadoras utilizan el mismo dispositivo de almacenamiento para datos e instrucciones conectados

Más detalles

Introducción a las Arquitecturas Paralelas. Arquitectura de Computadoras II Fac. Cs. Exactas UNCPBA Prof. Marcelo Tosini 2015

Introducción a las Arquitecturas Paralelas. Arquitectura de Computadoras II Fac. Cs. Exactas UNCPBA Prof. Marcelo Tosini 2015 Introducción a las Arquitecturas Paralelas Arquitectura de Computadoras II Fac. Cs. Exactas UNCPBA Prof. Marcelo Tosini 2015 Procesamiento Paralelo Uso de muchas unidades de proceso independientes para

Más detalles

Procesadores de palabra de instrucción muy larga (VLIW) v.2012

Procesadores de palabra de instrucción muy larga (VLIW) v.2012 Procesadores de palabra de instrucción muy larga (VLIW) v.2012 William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 13: Paralelismo a nivel de instrucciones y procesadores

Más detalles

MULTIPROCESADORES (MIMD)

MULTIPROCESADORES (MIMD) CAPITULO 6 MULTIPROCESADORES (MIMD) 6.1 - Generalidades de Multiprocesadores. Pueden clasificarse en esta categoría muchos sistemas multiprocesadores y sistemas multicomputadores. Un multiprocesador se

Más detalles

Concurrencia. Concurrencia

Concurrencia. Concurrencia Concurrencia Procesos y hebras Concurrencia Programación concurrente Por qué usar hebras y procesos? Ejecución de procesos Ejecución de hebras Hebras vs. Procesos Creación y ejecución de hebras La prioridad

Más detalles

Unidad II Arquitectura de Computadoras

Unidad II Arquitectura de Computadoras Unidad II Arquitectura de Computadoras Arquitectura de Computadoras -LATIC Contenido Qué es una computadora? Tipos de computadoras Evolución de las computadoras El modelo de Von Neumann La unidad central

Más detalles

TEMA 2: Organización de computadores

TEMA 2: Organización de computadores TEMA 2: Organización de computadores Procesadores Memorias Dispositivos de E/S 1 Computador Procesador, memoria, dispositivos de E/S CPU Unidad de control Unidad aritmética y lógica Registros Dispositivos

Más detalles

Programa Regular. Asignatura: Organización y Arquitectura de Computadoras.

Programa Regular. Asignatura: Organización y Arquitectura de Computadoras. Programa Regular Asignatura: Organización y Arquitectura de Computadoras. Carrera: Ingeniería en Informática. Ciclo Lectivo: Primer Cuatrimestre 2017 Año en el plan de estudios: 2 Año Coordinador/Profesor:

Más detalles

Docente Cargo Carga Horaria Carlos A. Correa Profesor Titular Exclusivo 10hs

Docente Cargo Carga Horaria Carlos A. Correa Profesor Titular Exclusivo 10hs 1. Carrera y Año: PROGRAMA ANALÍTICO 2010 ARQUITECTURAS AVANZADAS DE COMPUTADORAS - Licenciatura en Ciencias de la Computación 4 t año 2. Crédito Horario: - Horas áulicas por semana: 9 - Horario: Lunes:

Más detalles

Introducción a la arquitectura de computadores

Introducción a la arquitectura de computadores Introducción a la arquitectura de computadores Departamento de Arquitectura de Computadores Arquitectura de computadores Se refiere a los atributos visibles por el programador que trabaja en lenguaje máquina

Más detalles

Modelado de los computadores paralelos

Modelado de los computadores paralelos Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente

Más detalles

Tecnologías, Organización y Microarquitectura

Tecnologías, Organización y Microarquitectura Septiembre 2012 Tecnología de Integración Nanotecnología Tecnología de Integración Imágenes obtenidas con TEM (Transmission Electron Microscope) de una cepa del virus de la influenza, y de un transistor

Más detalles

UNIVERSIDAD AUTONOMA DE QUERETARO Facultad de Informática

UNIVERSIDAD AUTONOMA DE QUERETARO Facultad de Informática ARQUITECTURA DE LAS COMPUTADORAS(1303). ÁREA DE CONOCIMIENTO: ARQUITECTURA DE LAS COMPUTADORAS CRÉDITOS: 7 HORAS TEÓRICAS ASIGNADAS A LA SEMANA: 2 HORAS PRÁCTICAS ASIGNADAS A LA SEMANA: 2 PROGRAMAS EDUCATIVOS

Más detalles

SISTEMAS DE MULTIPROCESAMIENTO

SISTEMAS DE MULTIPROCESAMIENTO SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función

Más detalles

ARQUITECTURA DE COMPUTADORAS FUNDAMENTACIÓN OBJETIVOS GENERALES CONTENIDOS MINIMOS

ARQUITECTURA DE COMPUTADORAS FUNDAMENTACIÓN OBJETIVOS GENERALES CONTENIDOS MINIMOS ARQUITECTURA DE COMPUTADORAS Año 2017 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas

Más detalles

Capítulo 4. Introducción al paralelismo y al rendimiento.

Capítulo 4. Introducción al paralelismo y al rendimiento. Capítulo 4. Introducción al paralelismo y al rendimiento. 4.1. Magnitudes y medidas del rendimiento. En esta sección se definirán algunas de las medidas más utilizadas a la hora de determinar el rendimiento

Más detalles

Sistemas con Microprocesadores I

Sistemas con Microprocesadores I Sistemas con Microprocesadores I 1 Microcontroladores Introducción Harvard vs. von-neumann Clasificación del procesador Segmentado o Pipeline Ortogonal vs. No ortogonal 2 Microcontroladores PIC Siglas

Más detalles

Sistemas Operativos. Algo de Sistemas Operativos, Arquitecturas y Paralelismo

Sistemas Operativos. Algo de Sistemas Operativos, Arquitecturas y Paralelismo Sistemas Operativos Algo de Sistemas Operativos, Arquitecturas y Paralelismo 1 Qué es un Sistema Operativo? Administra recursos Arma una máquina virtual Comunicación con el usuario Facilita el uso (herramientas,

Más detalles

PROGRAMA INSTRUCCIONAL FUNDAMENTO PARA EL DISEÑO DE SISTEMAS CON MICROPROCESADORES

PROGRAMA INSTRUCCIONAL FUNDAMENTO PARA EL DISEÑO DE SISTEMAS CON MICROPROCESADORES UNIVERSIDAD FERMÍN TORO VICE RECTORADO ACADÉMICO FACULTAD DE INGENIERÍA ESCUELA DE COMPUTACIÓN PROGRAMA INSTRUCCIONAL FUNDAMENTO PARA EL DISEÑO DE SISTEMAS CON MICROPROCESADORES CÓDIGO ASIGNADO SEMESTRE

Más detalles

Fundamentos del Diseño de Computadores

Fundamentos del Diseño de Computadores Fundamentos del Diseño de Computadores Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS

Más detalles

Definición de Arquitectura

Definición de Arquitectura Definición de Arquitectura Arquitectura de los Computadores Personales Luis J. Saiz Adalid 1 Resumen Evolución del rendimiento de los computadores Concepto de arquitectura Tendencias Análisis de prestaciones

Más detalles

Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik

Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo

Más detalles

Departamento Ingeniería en Sistemas de Información

Departamento Ingeniería en Sistemas de Información ASIGNATURA: ARQUITECTURA DE MODALIDAD: COMPUTADORAS DEPARTAMENTO: ING. EN SIST. DE INFORMACION HORAS SEM.: Anual 4 horas AREA: COMPUTACIÓN HORAS/AÑO: 128 horas BLOQUE TECNOLOGÍAS BÁSICAS HORAS RELOJ 96

Más detalles

Aspectos avanzados de arquitectura de computadoras Multithreading. Facultad de Ingeniería - Universidad de la República Curso 2017

Aspectos avanzados de arquitectura de computadoras Multithreading. Facultad de Ingeniería - Universidad de la República Curso 2017 Aspectos avanzados de arquitectura de computadoras Multithreading Facultad de Ingeniería - Universidad de la República Curso 2017 Introducción En este capítulo se explorará la posibilidad de ejecutar múltiples

Más detalles

Revisión de Conceptos. Estructura de un Computador von Neumann. Arquitectura de Computadores I Introducción

Revisión de Conceptos. Estructura de un Computador von Neumann. Arquitectura de Computadores I Introducción Revisión de Conceptos. Estructura de un Computador von Neumann Arquitectura de Computadores I Introducción Objetivo Análisis de la estructura y funcionamiento de los computadores: naturaleza y características

Más detalles

Quinta tarea: Existen varias versiones del 80486:

Quinta tarea: Existen varias versiones del 80486: Quinta tarea: Los primeros procesadores utilizados en los PC fueron los procesadores 8088 y 8086. Sus principales diferencias con el 80286 es que el segundo permite multitarea, tenía una velocidad de reloj

Más detalles

Arquitecturas de Computadoras II

Arquitecturas de Computadoras II Programa de la Asignatura: Arquitecturas de Computadoras II Código: 26 Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Segundo

Más detalles

Arquitecturas Paralelas Examen de Febrero 24 Enero 2005

Arquitecturas Paralelas Examen de Febrero 24 Enero 2005 Universidad del País Vasco Facultad de Informática Dpto. de Arquitectura y Tecnología de Computadores Arquitecturas Paralelas Examen de Febrero 24 Enero 2005 Apellidos: Nombre: Grupo: Firma: 1 / 2 / 3

Más detalles

Repaso de Arquitectura y Organización Criterios de clasificación

Repaso de Arquitectura y Organización Criterios de clasificación Repaso de Arquitectura y Organización Criterios de clasificación William Stallings, Organización y Arquitectura de Computadores Andrew S. Tanenbaum, Organización de Computadoras Linda Null y Julia Lobur,

Más detalles

Introducción a los Sistemas. Distribuidos

Introducción a los Sistemas. Distribuidos Construcción de Sistemas Distribuidos Introducción a los Sistemas Distribuidos Rogelio Ferreira Escutia Contenido 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos

Más detalles

Modelos de Programación Paralela Prof. Gilberto Díaz

Modelos de Programación Paralela Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial

Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador

Más detalles

1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos

1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos Tema 5: Sistemas Operativos Distribuidos 1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño 1 1. Introducción Sistema Informático Distribuido: Colección de S.I. autónomos

Más detalles

Organización del Computador I. Introducción e Historia

Organización del Computador I. Introducción e Historia Organización del Computador I Introducción e Historia Introducción Qué es una computadora? Stallings: Máquina digital electrónica programable para el tratamiento automático de la información, capaz de

Más detalles

6. PROCESADORES SUPERESCALARES Y VLIW

6. PROCESADORES SUPERESCALARES Y VLIW 6. PROCESADORES SUPERESCALARES Y VLIW 1 PROCESADORES SUPERESCALARES Y VLIW 1. Introducción 2. El modelo VLIW 3. El cauce superescalar 4. Superescalar con algoritmo de Tomasulo 2 PROCESADORES SUPERESCALARES

Más detalles

Fecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro

Fecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro Nombre del estudiante: Giovanna Kristhel Mendoza Castillo Nombre del trabajo: Investigación sobre los Sistemas Operativos distribuidos Fecha de entrega: Miércoles 4 de Septiembre Campus: Villahermosa Carrera

Más detalles

1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento.

1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento. 1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento. Arquitecturas Clásicas. Estas arquitecturas se desarrollaron en las primeras computadoras electromecánicas y de tubos

Más detalles

1. Introducción a la Arquitectura de Computadoras

1. Introducción a la Arquitectura de Computadoras 1. Introducción a la Arquitectura de Computadoras M. Farias-Elinos Contenido Definiciones Estructura de una computadora Evolución de las computadoras Generaciones de computadoras Evolución de la família

Más detalles

El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza.

El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza. El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza. Contenido de la unidad. 1.1. Arquitectura básica y sus operaciones. 1.2. Tipos de arquitecturas en la evolución del

Más detalles

Arquitectura de Computadores. Tema 15. Buses

Arquitectura de Computadores. Tema 15. Buses Arquitectura de Computadores Tema 15 Buses Eduardo Daniel Cohen dcohen@arnet.com.ar http://www.herrera.unt.edu.ar/arqcom 1 CONCEPTO DE BUS Un Bus es: Un conjunto de cables que se usa para conectar múltiples

Más detalles

ARQUITECTURA DE COMPUTADORAS I. Propósito del curso : Al final del curso el estudiante: Ingeniería Ingeniería en Sistemas.

ARQUITECTURA DE COMPUTADORAS I. Propósito del curso : Al final del curso el estudiante: Ingeniería Ingeniería en Sistemas. UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU0017H Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: ARQUITECTURA DE COMPUTADORAS I DES: Ingeniería Ingeniería en Sistemas Programa(s) Educativo(s):

Más detalles

GUÍA DE APRENDIZAJE ARQUITECTURAS PARALELAS

GUÍA DE APRENDIZAJE ARQUITECTURAS PARALELAS GUÍA DE APRENDIZAJE ARQUITECTURAS PARALELAS Datos Descriptivos TITULACIÓN: CENTROS IMPLICADOS: GRADO EN INGENIERIA DE COMPUTADORES E.U. DE INFORMATICA CICLO: Grado sin atribuciones MÓDULO: MATERIA: Optativa

Más detalles

Sistemas Operativos. Curso 2016 Introducción

Sistemas Operativos. Curso 2016 Introducción Sistemas Operativos Curso 2016 Introducción Agenda Introducción a los sistemas operativos. Evolución histórica de los sistemas operativos: Sistemas por lotes. Sistemas por lotes multiprogramados. Sistemas

Más detalles

GUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES

GUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES GUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES GRADO EN INGENIERIA DE COMPUTADORES Datos Descriptivos CENTRO RESPONSABLE: E.U. DE INFORMATICA OTROS CENTROS IMPLICADOS: CICLO: Grado sin atribuciones MÓDULO:

Más detalles

Tendencias y Evaluación

Tendencias y Evaluación Tendencias y Evaluación Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento de

Más detalles

ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte)

ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte) ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte) Profesor: Fernando Pardo Carpio Valencia, 27 de septiembre de 2004 Prefacio El temario recogido en estos apuntes se corresponde con la segunda

Más detalles

2EMHWLYRV 5HIHUHQFLDV. Procesadores vectoriales

2EMHWLYRV 5HIHUHQFLDV. Procesadores vectoriales 7HPD0XOWLSURFHVDGRUHV 2EMHWLYRV 5HIHUHQFLDV,QWURGXFFLyQ $UTXLWHFWXUDVFHQWUDOL]DGDVGHPHPRULDFRPSDUWLGD $UTXLWHFWXUDVGLVWULEXLGDVGHPHPRULDFRPSDUWLGD 6LQFURQL]DFLyQ 0XOWLFRPSXWDGRUHV 1 esadores vectoriales

Más detalles

Ley de Amdahl Ley de Moore Prof. Gilberto Díaz

Ley de Amdahl Ley de Moore Prof. Gilberto Díaz Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Ley de Amdahl Ley de Moore Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería

Más detalles

Sistemas Operativos Distribuidos. Sistemas Operativos Una visión aplicada

Sistemas Operativos Distribuidos. Sistemas Operativos Una visión aplicada Bibliografía Sistemas Operativos Distribuidos Ing. Alfonso Guijarro Rodríguez alfonso_guijarro@yahoo.es Sistemas Operativos Distribuidos Andrew S. Tanenbaum. 1996, Prentice-Hall Capítulo 1 última edición

Más detalles

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC

MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología

Más detalles

Bases de Datos Paralelas. Carlos A. Olarte BDII

Bases de Datos Paralelas. Carlos A. Olarte BDII Carlos A. Olarte (carlosolarte@puj.edu.co) BDII Contenido 1 Introducción 2 Paralelismo de I/O 3 Paralelismo entre Consultas 4 OPS Introducción Por qué tener bases de datos paralelas? Tipos de arquitecturas:

Más detalles

Introducción a los procesadores ILP (Instruction-Level Parallel)

Introducción a los procesadores ILP (Instruction-Level Parallel) Introducción a los procesadores ILP (Instruction-Level Parallel) Herramientas básicas para conseguir paralelismo entre instrucciones: Encauzamiento (pipelining) Se usa en todo procesador ILP Utilizar varias

Más detalles

MICROPROCESADOR. Ing. Raúl Rojas Reátegui

MICROPROCESADOR. Ing. Raúl Rojas Reátegui MICROPROCESADOR Ing. Raúl Rojas Reátegui OBJETIVOS Al termino de la sesión el estudiante será capaz de: Describir las principales características de un Microprocesador. Describir las principales características

Más detalles

Objetivos Generales. Conocimientos Previos Recomendados. CONTENIDOS TEORICOS (Temporización)

Objetivos Generales. Conocimientos Previos Recomendados. CONTENIDOS TEORICOS (Temporización) Año académico: 2005-2006 Centro: Escuela Politécnica Superior Departamento: Arquitectura de Computadores y Electrónica Área: Arquitectura y Tecnología de Computadores Estudios: Ingeniero Técnico en Informática

Más detalles

EVOLUCIÓN HISTÓRICA DE LOS µp

EVOLUCIÓN HISTÓRICA DE LOS µp EVOLUCIÓN HISTÓRICA DE LOS µp El primer procesador fue inventado por los Babilonios en el año 500 ac En 1642 se perfeccionó la primera calculadora por Blas Pascal A mediados del siglo pasado se inventaron

Más detalles

Arquitectura de Computadores

Arquitectura de Computadores Arquitectura de Computadores 1. Introducción 2. La CPU 3. Lenguaje Máquina 4. La Memoria 5. Sistemas de Entrada/Salida 6. CPU Segmentada (Pipeline) 7. Memoria Caché 8. Arquitecturas RISC Arquitectura de

Más detalles

Redes de Interconexión

Redes de Interconexión Redes de Interconexión José M. Cámara (checam@ubu.es) v. 1.0 Redes de interconexión Estáticas o directas: formadas por enlaces permanentes, punto a punto, entre los diferentes nodos de la red. Dinámicas

Más detalles

Algoritmos paralelos para la Multiplicación de Matrices

Algoritmos paralelos para la Multiplicación de Matrices Introducción Paralelizar onclusiones Trabajo ibliografía lgoritmos paralelos para la Multiplicación de Matrices Universidad de Murcia - UM 18 de diciembre de 2008 Introducción Paralelizar onclusiones Trabajo

Más detalles

Aspectos avanzados de arquitectura de computadoras Pipeline. Facultad de Ingeniería - Universidad de la República Curso 2017

Aspectos avanzados de arquitectura de computadoras Pipeline. Facultad de Ingeniería - Universidad de la República Curso 2017 Aspectos avanzados de arquitectura de computadoras Pipeline Facultad de Ingeniería - Universidad de la República Curso 2017 Objetivo Mejorar el rendimiento Incrementar frecuencia de reloj? Ancho de los

Más detalles

Arquitectura del CPU. Organización del Computador 1 Verano 2016

Arquitectura del CPU. Organización del Computador 1 Verano 2016 Arquitectura del CPU Organización del Computador 1 Verano 2016 Agenda De dónde venimos? Introducción: esquema de una computadora Representación de la información Circuitos Combinatorios Circuitos Secuenciales

Más detalles

Procesadores superescalares. Introducción

Procesadores superescalares. Introducción Procesadores superescalares Introducción Introducción El término superescalar (superscalar) fue acuñado a fines de los 80s. Todas las CPUs modernas son superescalares. Es un desarrollo de la arquitectura

Más detalles

Procesadores Superescalares v.2014

Procesadores Superescalares v.2014 Procesadores Superescalares v.2014 J. Smith and G. Sohi, The Microarchitecture of Superscalar Processors. Proceedings IEEE, Vol. 83, No. 12, Diciembre 1995. William Stallings, Organización y Arquitectura

Más detalles

Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida

Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida Tema 8: Multiprocesadores de memoria compartida y distribuida Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida 3. Medio de interconexión de

Más detalles

Plataformas paralelas

Plataformas paralelas Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados

Más detalles

Rendimiento de computadores

Rendimiento de computadores + Prof. José María Foces Morán Dept. IESA Universidad de León Rendimiento de computadores Tiempo de ejecución Tiempo de CPU Rendimiento comparativo Ley de Amdahl Ley de Gustaffson + Computador síncrono

Más detalles

Arquitectura de Computadores

Arquitectura de Computadores Universidad Politécnica de Madrid Departamento de Informática Aplicada Notas y Transparencias de Arquitectura de Computadores CPU Memorias Controladores de E/S Paco Aylagas Reservados todos los derechos.

Más detalles

MP - Multiprocesadores

MP - Multiprocesadores Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA

Más detalles

Tema 0. Introducción al Paralelismo y Organización de un Computador

Tema 0. Introducción al Paralelismo y Organización de un Computador Tema 0. Introducción al Paralelismo y Organización de un Computador Organización de Computadores LUIS ENRIQUE MORENO LORENTE RAÚL PÉRULA MARTÍNEZ ALBERTO BRUNETE GONZALEZ DOMINGO MIGUEL GUINEA GARCIA ALEGRE

Más detalles

ESCUELA DE INGENIERIA Informática Y Sistemas

ESCUELA DE INGENIERIA Informática Y Sistemas ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN

Más detalles

Estructura de un Ordenador

Estructura de un Ordenador Estructura de un Ordenador 1. Unidad Central de Proceso (CPU) 2. Memoria Principal 3. El Bus: La comunicación entre las distintas unidades 4. La unión de todos los elementos: la placa Base Estructura de

Más detalles

Memoria compartida simétrica

Memoria compartida simétrica Memoria compartida simétrica Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento

Más detalles

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA

GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA G650 - Organización de Computadores Grado en Ingeniería Informática Curso Académico 2015-2016 1. DATOS IDENTIFICATIVOS Título/s Grado en Ingeniería Informática Tipología

Más detalles

Introducción a la computación paralela

Introducción a la computación paralela Introducción a la computación paralela M. en C. Antulio Morgado Valle Jefe del Departamento de Electrónica del CINTEC-IPN. n este artículo se desea presentar al lector una revisión E de conceptos básicos

Más detalles

UNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCIÓN

UNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCIÓN UNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCIÓN Teoría y Aplicación de la Informática 2 VS Autores: Roberto A. Demestri R. Luis F. Martínez Miranda. Setiembre - 2001 Indice Título Pag. Indice 2 AMD

Más detalles

1.2.-Analisis de los componentes

1.2.-Analisis de los componentes 1.2.-Analisis de los componentes 1.2.1.-CPU La Unidad Central de Proceso (conocida por sus siglas en inglés, CPU). Es el lugar donde se realizan las operaciones de cálculo y control de los componentes

Más detalles

Tema 7: Procesadores superescalares

Tema 7: Procesadores superescalares Tema 7: Procesadores superescalares Arquitectura de Computadores y Sistemas Operativos I 4º Curso Plan 96 Escuela Técnica Superior Ingenieros Telecomunicaciones DISCA Tema 7: Procesadores superescalares

Más detalles

AC2 - Arquitectura de Computadores II

AC2 - Arquitectura de Computadores II Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA

Más detalles

3. Estructura básica de un computador convencional.

3. Estructura básica de un computador convencional. Índice 1. Objetivos de la asignatura. 2. Niveles de descripción ió de un computador. 3. Estructura básica de un computador convencional. 4. Evolución histórica: tecnología y arquitectura. 5. Lenguajes

Más detalles

Arquitectura de Computadoras

Arquitectura de Computadoras Arquitectura de Computadoras Clase 7 Memoria Sistema de Memoria Los programadores desean acceder a cantidades ilimitadas de memoria rápida!! Solución práctica: Jerarquía de memoria organizada en niveles

Más detalles