Arquitecturas Paralelas Introducción
|
|
- Domingo de la Fuente Santos
- hace 6 años
- Vistas:
Transcripción
1 Arquitecturas Paralelas Introducción William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización de Computadoras 4ta. ed., Capítulo 8: Arquitecturas de computadoras paralelas. Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey.
2 Contexto El paralelismo, en todas sus formas, es el tema central de la asignatura. En la primer mitad del curso se presentaron varios aspectos de los diseños de procesadores que involucran el concepto de paralelismo, entendido como ejecución simultánea: Segmentación y supersegmentación del ciclo de instrucción y de las unidades funcionales. Arquitecturas superescalares y duplicación de recursos. Arquitecturas de palabra ancha. Arquitecturas vectoriales. NOTA: Otra forma de simultaneidad: Multitareas. Varios procesos comparten una CPU [OS] Timesharing vs. real-time.
3 Contexto Paralelismo a nivel de instrucciones (ILP) Existe ILP cuando las instrucciones que componen un programa son independientes. En ese caso el código puede ser reordenado sin alterar el resultado. Por lo tanto existe la posibilidad de ejecutar las instrucciones en paralelo. Las dependencias de datos son críticas en este contexto. Ejemplo operaciones independientes: for(i=0;i<1000;i++) x[i]=x[i]+y[i]; Ejemplo operaciones dependientes: for(i=1;i<1000;i++) x[i]=(x[i]+x[i-1])/2; Paralelismo de la máquina (MLP) Es una medida de la capacidad del procesador para sacar partido del ILP. Depende del número de instrucciones que puedan captarse y ejecutarse simultáneamente (número de cauces paralelos). Existen dos aproximaciones: Scheduling Dinámico (HW): P4, UltraSPARCIII. SUPERESCALAR. Paralelismo implícito. Scheduling Estático (SW): IA-64, Transmeta. VLIW. Paralelismo explícito. El punto es detectar el ILP y explotarlo con MLP Alteramos la secuencialidad de las instrucciones del programa
4 Contexto Se presentaron los limites para la construcción de procesadores: La disipación de potencia limita el tamaño de los transistores La velocidad de la luz limita la velocidad de reloj Utilizando diseños RISC profundamente segmentados con características superescalares, puede conseguirse hasta un factor 10 de aceleración respecto de los diseños tradicionales, pero no más que eso. Pero qué sucede si una aplicación necesita instrucciones por segundo? Puede especularse sobre la futura existencia de un período de reloj de ns? Casi imposible (la luz recorre 0.3 mm en 1 ps). Puede pensarse en 1000 computadoras de 1 ns trabajando simultáneamente? Puede ser... Si se desea un factor 1000 no alcanza con extender el concepto superescalar, agregando unidades funcionales, o pensar en aumentar 1000 veces la frecuencia de trabajo. La única solución es repetir CPUs enteras y lograr una colaboración eficiente entre ellas.
5 Contexto Avances importantes en microprocesadores desde von Neumann (1950) Unidad de control microprogramada y el concepto de familia (1964) Compatibilidad ISA con diferentes implementaciones [IBM 360]. Memoria cache (1968) [IBM 360]. Arquitecturas RISC (1982) Involucra la mayoría de los asuntos importantes de arquitectura y organización: Segmentación de cauce (pipeline) y diseño superescalar. No existe en la actualidad una tecnología que haga prever un impacto semejante. Múltiples procesadores?
6 Motivación Las computadoras con una única CPU no son suficientes para satisfacer los requerimientos de algunas áreas de aplicación, a pesar de los avances tecnológicos y arquitectónicos de los procesadores modernos. Simulaciones y modelado de sistemas complicados. Problemas que dependan de la manipulación/cómputo de grandes cantidades de datos Los grandes problemas físicos, económicos, biológicos, climatológicos. Estas aplicaciones se caracterizan por manejar cantidades enormes de datos y/o realizar grandes cantidades de cálculos numéricos. Grand Challenge Problems (los grandes desafíos) Problemas que tienen solución, pero que no pueden resolverse en una cantidad de tiempo razonable utilizando las computadoras actuales. Dinámica de fluídos, modelado ambiental, biología molecular. Ejemplo: pronostico meteorológico. Una posible solución para las necesidades de alta performance es utilizar sistemas con varias CPUs para resolver una determinada aplicación.
7 Procesamiento paralelo Arquitectura paralela Sistema con dos o mas procesadores conectados de tal manera que les sea posible compartir la ejecución de una determinada tarea (realizar procesamiento paralelo). Existen diversas organizaciones, según: Número y complejidad de las CPUs utilizadas. Disponibilidad de memoria compartida. Topología de interconexión. Dispositivos de E/S.
8 Paralelización de programas La estrategia para la construcción de un programa paralelo (paralelización) consiste en descomponer el problema en tareas de menor complejidad que puedan ejecutarse simultáneamente. El paralelismo se consigue: Descomponiendo el problema en tareas menores. Asignando las tareas a procesadores que puedan ejecutar en paralelo. Coordinando las tareas simultáneas. Analogía con la industria automotriz y otros problemas complejos.
9 Programas paralelos - Condiciones Se necesitan dos condiciones en los programas de aplicación para hacer un uso eficiente de los procesadores: 1) Poca comunicación entre los procesadores mientras ejecutan la tarea compartida. 2) Un cierto grado de paralelismo inherente en la tarea a realizar. Generalmente, la resolución de un problema puede ser dividida en tareas de menor complejidad, las cuales pueden ser ejecutadas simultáneamente con una cierta coordinación. Pero puede suceder que el esfuerzo de coordinación supere los beneficios del procesamiento simultáneo. No todas las aplicaciones se benefician Problemas Embarrassingly parallel Problemas en los cuales no hay que hacer ningún esfuerzo para paralelizar, pues no existe comunicación entre procesadores. Fractales (cada punto puede calcularse en forma independiente) Animación (cada cuadro se renderiza en forma independiente de los demás) Simulaciones y reconstrucciones en física de partículas.
10 Programas paralelos - Ejemplos for(i=0;i<n;i++){ x=rand()/rand_max; y=rand()/rand_max; r=sqrt(x*x+y*y); if(r<=1.0) m++; } pi=4*m/n; El método Montecarlo: método estadístico numérico utilizado para aproximar expresiones complejas o costosas. Se basa en el muestreo aleatorio (o pseudoaleatorio en el caso de las computadoras). a) Cálculo de π (distribución de tareas) b) Ordenamiento paralelo (distribución de datos)
11 Tipos de paralelismo PARALELISMO EN LOS DATOS Diferentes datos, misma tarea (SIMD) program:... if CPU="a" then low_limit=1 upper_limit=50 else if CPU="b" then low_limit=51 upper_limit=100 end if do i = low_limit, upper_limit Task on d(i) end do... end program PARALELISMO EN LAS TAREAS Diferentes datos, diferentes tareas (MIMD) program:... if CPU="a" then do task "A" else if CPU="b" then do task "B" end if... end program
12 Organización Clasificación de Flynn (1972) Clasificación histórica, basada en la naturaleza ortogonal del flujo de instrucciones ejecutado por la computadora (I) y el flujo de datos sobre los cuales operan las instrucciones (D). Massively Parallel Processor (MPP)
13
14 (Tanenbaum)
15 Arquitecturas SISD Single Instruction stream, Single Data stream. Arquitectura tradicional escalar de von Neumann, estudiada hasta este momento. Cada instrucción opera sobre un único dato. Puede existir paralelismo: segmentación, superescalares y unidades vectoriales.
16 Arquitecturas SIMD Single Instruction stream, Multiple Data stream Constan de una única unidad de control y múltiples unidades idénticas de procesamiento que realizan la misma instrucción al unísono. Llamados también Array Processors (no confundir con vectoriales). Especializados en problemas numéricos que puedan expresarse como matrices o vectores. Cada unidad de procesamiento consta de una ALU y registros, y se utiliza para computar un elemento del resultado (front-end von Neumann, más un array de procesadores idénticos que realizan la misma instrucción).
17 Arquitecturas SIMD Single Instruction stream, Multiple Data stream Pueden utilizar memoria compartida o distribuida. Ejemplo: ILLIAC IV (1970s), 64 procesadores conectados en una grilla de 8x8. CM-2 (1990s) de Connection Machines (RIP), procesadores conectados en hipercubo.
18 Arquitecturas MIMD Multiple Instruction stream, Multiple Data stream Son las arquitecturas paralelas propiamente dichas. Pueden ser con memoria compartida (multiprocesadores) o memoria distribuida (multicomputadoras). Cada unidad de procesamiento tiene su propio flujo de instrucciones.
19 MIMD: Multiprocesadores Procesadores fuertemente acoplados Existe un único espacio de direccionamiento. La comunicación entre procesadores se realiza a través de la memoria compartida. Desde el punto de vista del programador se trata de variables globales. Los programas son fáciles de escribir, La performance de la memoria limita el número de procesadores (crítico). IBM System/370, 2 CPUs (1970) IBM System/390, múltiple (1990) Cray X-MP/Y-MP Cray 3 (16 proc vect) Intel Pentium D: 2xP4 en bus sin HT L1:16K+16K, L2:1M+1M IBM POWER5 (2004) COHERENCIA DE CACHE
20 MIMD: Multicomputadoras Procesadores débilmente acoplados Cada CPU tiene su propia memoria, invisible para la demás. La comunicación entre procesadores se realiza a través de un mecanismo de pasaje de mensajes. Desde el punto de vista del programador no existen las variables globales, sino canales de comunicación y operaciones de envío y recepción, que deben programarse en forma explícita. La performance de la red de interconexión limita el número de procesadores. Depende mucho del tipo de aplicación. Intel ipsc/2 (1989) [128 proc 80386, hipercubo] Intel Paragon (1991) [2000 proc i860, mesh] Cray T3E MC512 (1995) [512 proc Alpha 3d-mesh] Beowulf Clusters, NOW ROUTING DE MENSAJES
21 Redes de interconexión para arquitecturas paralelas Pueden clasificarse según diferentes criterios: Modo de operación: sincrónico vs. asincrónico. Estrategia de control: centralizado vs. descentralizado. Técnica de conmutación: circuitos vs. conmutación de paquetes. Topología: cómo se conectan procesadores y memorias entre sí. Balance entre performance (ancho de banda) y costo.
22 Redes de interconexión Topologías para memoria compartida a) Bus b) Conmutada
23 Redes de interconexión Topologías para memoria compartida CROSSBAR El routing dinámico se consigue utilizando redes de conmutación compuestas por crossbar switches o 2x2 switches. Las redes crossbar son no bloqueantes (permiten varias conexiones simultáneas) pero necesitan gran cantidad de switches (N 2 para N nodos).
24 Redes de interconexión Topologías para memoria compartida OMEGA Las redes de interconexión multietapa son las más avanzadas entre las redes actuales de conmutación. En el caso de la red omega, para conectar N nodos se necesitan log 2 N etapas con N/2 switches 2x2 cada una.
25 Redes de interconexión Topologías para memoria compartida Sumario Ventajas y desventajas de las diferentes topologías: Las redes tipo bus son económicas pero pueden transformarse en el cuello de botella del sistema. Los buses paralelos mejoran la performance, pero son costosos. Las redes crossbar son no bloqueantes, pero requieren un gran número de switches. Las redes omega son bloqueantes en menor grado. Presentan mejor performance que los buses y son más económicas que las crossbar.
26 Redes de interconexión Topologías para pasaje de mensajes I) Estáticas (pizarrón) II) Dinámicas 4
27 Redes de interconexión Topologías para pasaje de mensajes 10-cube 4-cube
28 Análisis de performance en Arquitecturas Paralelas Hesham El-Rewini & Mostafa Abd-El-Barr, Advanced Computer Architecture and Parallel Processing. Willey. Capítulo 3 completo. Peak rate (no muy útil, marketing) Mejora y Eficiencia [S=Ts/Tp, ξ=s/n] Equal duration model: caso ideal [S=n, ξ=1] Serial section model: ley de Amdahl [S=n/(f(n-1)+1)] Amdahl vs. Gustafson-Barsis [SS=n-f(n-1)] Efecto del tiempo de comunicación [S=Ts/(Tp+Tc), fc=ntc/ts] Escalabilidad
29 Definición de mejora y eficiencia S= t s t m ξ= S n Equal duration model ξ= 1 Fractional communication overhead
30 Serial section model
31
32 Serial section model with communication overhead
33 Amdhal vs. Gustafson-Barsis Algunos problemas no se comportan en forma tan pesimista como predice Amdhal. A veces el tamaño del problema escala con el número SS n de procesadores. SS(f) es una recta y no presenta el límite en 1/f. Es como si f se fuera achicando, en proporción, al aumentar el orden del problema (en la práctica sucede) 1 SS ( n )= f+(1 f ) n f+ (1 f ) n n lim SS (n ) n = 1 f Métrica de Karp-Flatt Despejando f de Amdhal y midiendo la aceleración S que se obtiene para un dado problema (utilizando n procesadores), resulta que f es una medida experimental de cuán paralelizable es el problema. Puede utilizarse para predecir cómo se comportará el sistema al variar el número de procesadores). f= 1 S + 1 n 1 1 n
34 S vs. f gnuplot> plot [x=0:1] [0:10] 5/(x*4+1) title "Amdahl n=5", 10/(x*9+1) title "Amdahl n=10", 100/(x*99+1) title "Amdahl n=100",1/x title "Amdahl n=oo", 5-(x*4) title "Gustafson n=5", 10-(x*9) title "Gustafson n=10", 100-(x*99) title "Gustafson n=100"
35 Escalabilidad Ejemplo: Hipercubo de D dimensiones (n=2 D, dist max D=log2(n)), utilizado para realizar la suma de m números. Mejora (hacia 4): escalable S= m m n +2log 2 n Es escalable si habiendo agregado nodos la eficiencia se mantiene cte al aumentar m
36 for m=1:8, for n=1:8, N=2^n; M=2^(m+5); S(m,n)=M/(M/N+log2(N)); E(m,n)=S(m,n)/N; end end surf(s); % ver que en la diagonal se vaya duplicando ylabel('m: orden 2^(m+5)'); xlabel('n: nodos 2^n'); zlabel('mejora');
37 for m=1:8, for n=1:8, N=2^n; M=2^(m+5); S(m,n)=M/(M/N+log2(N)); E(m,n)=S(m,n)/N; end end surf(e); % ver que la diagonal se mantenga constante ylabel('m: orden 2^(m+5)'); xlabel('n: nodos 2^n'); zlabel('eficiencia');
38 Escalabilidad El grado de escalabilidad de un sistema paralelo se determina por la relación en que el problema debe incrementarse respecto del número de procesadores (n), para mantener una eficiencia constante cuando el número de procesadores aumenta. Por ejemplo, en un sistema paralelo altamente escalable el tamaño del problema deberá crecer linealmente con respecto de n a fin de mantener la eficiencia constante. En un sistema poco escalable el tamaño del problema necesitará crecer exponencialmente con respecto de n para mantener la eficiencia constante.
39 Sumario Taxonomía de Flynn SISD: Single Processor, von Neumann SIMD: Array Processors MISD:???? MIMD: Memoria compartida: Multiprocesadores (SMP y NUMA) Memoria distribuida: Multicomputadoras (MPP y Clusters)
40 Sumario Taxonomía de Flynn
41 Sumario Las arquitecturas para procesamiento paralelo, en sus diversas variantes, son el tema central de la materia. Las técnicas superescalares y de segmentación utilizan conceptos de paralelismo con el objetivo de incrementar el desempeño de los diseños clásicos. Estas encuentran rápidamente limitaciones prácticas en el momento de la implementación. Existen problemas que no pueden solucionarse utilizando un único procesador, dado el actual estado de la tecnología, por lo que se presenta la necesidad de utilizar varios de ellos trabajando en forma coordinada. Pero no todos los problemas pueden sacar partido de esta estrategia. Los programas deben cumplir con algunas condiciones. Existen dos tipos de organizaciones con diferentes objetivos: los diseños SIMD explotan el paralelismo en los datos, y los MIMD el paralelismo en las instrucciones. Estos últimos se dividen en multiprocesadores y multicomputadoras, según dispongan o no de memoria compartida. Estas son las dos grandes categorías actuales de arquitectutas paralelas. Ambas utilizan modelos de programación diferentes. Los grandes sistemas de cómputo utilizan hoy una combinación de ambas arquitecturas.
Con estas consideraciones, Flynn clasifica los sistemas en cuatro categorías:
Taxonomía de las arquitecturas 1 Introducción Introducción En este trabajo se explican en detalle las dos clasificaciones de computadores más conocidas en la actualidad. La primera clasificación, es la
Más detallesArquitecturas vectoriales, SIMD y extensiones multimedia
Arquitecturas vectoriales, SIMD y extensiones multimedia William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización
Más detallesArquitectura de Computadoras. Clase 9 Procesamiento paralelo
Arquitectura de Computadoras Clase 9 Procesamiento paralelo Introducción al procesamiento paralelo Sea cual sea el nivel de prestaciones, la demanda de máquinas de mayor rendimiento seguirá existiendo.
Más detalles07 y 08 Sistemas distribuidos y paralelos y tarea 02
07 y 08 Sistemas distribuidos y paralelos y tarea 02 Prof. Edgardo Adrián Franco Martínez http://computacion.cs.cinvestav.mx/~efranco efranco.docencia@gmail.com Estructuras de datos (Prof. Edgardo A. Franco)
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesProcesamiento Paralelo
Procesamiento Paralelo Arquitecturas de Computadoras Paralelas Javier Iparraguirre Universidad Tecnológica Nacional, Facultad Regional Bahía Blanca 11 de Abril 461, Bahía Blanca, Argentina jiparraguirre@frbb.utn.edu.ar
Más detallesComputación de Alta Performance Curso 2009 ARQUITECTURAS PARALELAS ARQUITECTURAS PARALELAS
Computación de Alta Performance Curso 2009 CONTENIDO Arquitecturas secuenciales y paralelas. Clasificación de Flynn. Modelo SIMD. GPUs. Modelo SISD. Modelo SIMD. Arquitectura MIMD MIMD con memoria compartida.
Más detallesEVOLUCIÓN DE LOS PROCESADORES
EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora
Más detallesProgramación Concurrente y Paralela. Unidad 1 Introducción
Programación Concurrente y Paralela Unidad 1 Introducción Contenido 1.1 Concepto de Concurrencia 1.2 Exclusión Mutua y Sincronización 1.3 Corrección en Sistemas Concurrentes 1.4 Consideraciones sobre el
Más detallesTEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS
TEMA 9. SISTEMAS OPERATIVOS DISTRIBUIDOS Introducción Hardware Software Aspectos de diseño 1 Introducción Aparecen en los 80 Desarrollo de Microprocesadores LAN Sistemas Distribuidos: Gran nº de procesadores
Más detallesConceptos básicos de procesamiento paralelo (1)
Conceptos básicos de procesamiento paralelo (1) Paralelismo: En un sistema computador hay paralelismo cuando, al menos, durante algunos instantes de tiempo ocurren varios eventos similares Ejecución concurrente
Más detallesDepartamento de Automática
Departamento de Automática Tema 1 Introducción al paralelismo Prof. Dr. José Antonio de Frutos Redondo Dr. Raúl Durán Díaz Curso 2010-2011 Tema 1: Introducción Necesidad del paralelismo Rendimiento de
Más detallesModelos de computadores paralelos
Modelos de computadores paralelos Domingo Giménez Departamento de Informática y Sistemas Universidad de Murcia, Spain dis.um.es/~domingo Universidad de Murcia 1 Contenido Programación paralela Modelos
Más detallesTema 2. Arquitectura de CPU avanzadas 15/03/2011
Tema 2. Arquitectura de CPU avanzadas. Juegos CISC y RISC. Proceso paralelo. Procesadores escalares y vectoriales. Segmentación. Caches multinivel. Índice Introducción... 1 Procesadores CISC y RISC...
Más detallesARQUITECTURAS PARA PROCESAMIENTO PARALELO
1 de 6 27/11/11 13:08 ARQUITECTURAS PARA PROCESAMIENTO PARALELO Facultad de Ingeniería de Sistemas Información para el Proyecto REYCYT RESUMEN Se presenta información general relativa a las diferentes
Más detallesIntroducción a las arquitecturas paralelas
Capítulo 4 Introducción a las arquitecturas paralelas Hasta este momento se ha estudiado el procesamiento a nivel del procesador. Se ha visto ya que la segmentación es un primer mecanismo de paralelismo,
Más detallesTrabajo de investigación Paralelismo en el procesador
Universidad Nacional Autónoma de Honduras Facultad de Ingeniería Departamento de Ingeniería en Sistemas Trabajo de investigación Paralelismo en el procesador Saúl Armando Laínez Girón 20101006758 IS603
Más detallesGRADO EN INGENIERÍA DE COMPUTADORES
GRADO EN INGENIERÍA DE COMPUTADORES Departamento Arquitecturas de Paralelas Automática Prof. Dr. José Antonio de Frutos Redondo Curso 2013-2014 Tema 4. Arquitecturas Paralelas Arquitecturas paralelas.
Más detallesUnidad 4 - Procesamiento paralelo. Arquitectura de computadoras. D o c e n t e : E r n e s t o L e a l. E q u i p o : J e s s i c a F i e r r o
Unidad 4 - Procesamiento paralelo. D o c e n t e : E r n e s t o L e a l E q u i p o : J e s s i c a F i e r r o L u i s N a v e j a s Arquitectura de computadoras Introducción Cuestionario Conclusiones
Más detallesLusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín cesar.gomez@cenits.es www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Más detallesArquitectura de Computadores
Arquitectura de Computadores Departament d Informàtica de Sistemes i Computadors E.P.S.Alcoi 1 Bloque Temático II: Arquitectura de Computadores Tema 3: Introducción a la arquitectura de un computador Tema
Más detallesARQUITECTURA DE VON NEUMANN Y HARVARD
ARQUITECTURA DE VON NEUMANN Y HARVARD ARQUITECTURA VON NEUMANN En esta arquitectura se observa que las computadoras utilizan el mismo dispositivo de almacenamiento para datos e instrucciones conectados
Más detallesIntroducción a las Arquitecturas Paralelas. Arquitectura de Computadoras II Fac. Cs. Exactas UNCPBA Prof. Marcelo Tosini 2015
Introducción a las Arquitecturas Paralelas Arquitectura de Computadoras II Fac. Cs. Exactas UNCPBA Prof. Marcelo Tosini 2015 Procesamiento Paralelo Uso de muchas unidades de proceso independientes para
Más detallesProcesadores de palabra de instrucción muy larga (VLIW) v.2012
Procesadores de palabra de instrucción muy larga (VLIW) v.2012 William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 13: Paralelismo a nivel de instrucciones y procesadores
Más detallesMULTIPROCESADORES (MIMD)
CAPITULO 6 MULTIPROCESADORES (MIMD) 6.1 - Generalidades de Multiprocesadores. Pueden clasificarse en esta categoría muchos sistemas multiprocesadores y sistemas multicomputadores. Un multiprocesador se
Más detallesConcurrencia. Concurrencia
Concurrencia Procesos y hebras Concurrencia Programación concurrente Por qué usar hebras y procesos? Ejecución de procesos Ejecución de hebras Hebras vs. Procesos Creación y ejecución de hebras La prioridad
Más detallesUnidad II Arquitectura de Computadoras
Unidad II Arquitectura de Computadoras Arquitectura de Computadoras -LATIC Contenido Qué es una computadora? Tipos de computadoras Evolución de las computadoras El modelo de Von Neumann La unidad central
Más detallesTEMA 2: Organización de computadores
TEMA 2: Organización de computadores Procesadores Memorias Dispositivos de E/S 1 Computador Procesador, memoria, dispositivos de E/S CPU Unidad de control Unidad aritmética y lógica Registros Dispositivos
Más detallesPrograma Regular. Asignatura: Organización y Arquitectura de Computadoras.
Programa Regular Asignatura: Organización y Arquitectura de Computadoras. Carrera: Ingeniería en Informática. Ciclo Lectivo: Primer Cuatrimestre 2017 Año en el plan de estudios: 2 Año Coordinador/Profesor:
Más detallesDocente Cargo Carga Horaria Carlos A. Correa Profesor Titular Exclusivo 10hs
1. Carrera y Año: PROGRAMA ANALÍTICO 2010 ARQUITECTURAS AVANZADAS DE COMPUTADORAS - Licenciatura en Ciencias de la Computación 4 t año 2. Crédito Horario: - Horas áulicas por semana: 9 - Horario: Lunes:
Más detallesIntroducción a la arquitectura de computadores
Introducción a la arquitectura de computadores Departamento de Arquitectura de Computadores Arquitectura de computadores Se refiere a los atributos visibles por el programador que trabaja en lenguaje máquina
Más detallesModelado de los computadores paralelos
Modelado de los computadores paralelos Francisco Almeida, Domingo Giménez, José Miguel Mantas, Antonio M. Vidal: Introducción a la rogramación aralela, araninfo Cengage Learning, 2008 Figuras tomadas directamente
Más detallesTecnologías, Organización y Microarquitectura
Septiembre 2012 Tecnología de Integración Nanotecnología Tecnología de Integración Imágenes obtenidas con TEM (Transmission Electron Microscope) de una cepa del virus de la influenza, y de un transistor
Más detallesUNIVERSIDAD AUTONOMA DE QUERETARO Facultad de Informática
ARQUITECTURA DE LAS COMPUTADORAS(1303). ÁREA DE CONOCIMIENTO: ARQUITECTURA DE LAS COMPUTADORAS CRÉDITOS: 7 HORAS TEÓRICAS ASIGNADAS A LA SEMANA: 2 HORAS PRÁCTICAS ASIGNADAS A LA SEMANA: 2 PROGRAMAS EDUCATIVOS
Más detallesSISTEMAS DE MULTIPROCESAMIENTO
SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función
Más detallesARQUITECTURA DE COMPUTADORAS FUNDAMENTACIÓN OBJETIVOS GENERALES CONTENIDOS MINIMOS
ARQUITECTURA DE COMPUTADORAS Año 2017 Carrera/ Plan: Licenciatura en Informática Plan 2015 Licenciatura en Sistemas Plan 2015 Licenciatura en Informática Plan 2003-07/Plan 2012 Licenciatura en Sistemas
Más detallesCapítulo 4. Introducción al paralelismo y al rendimiento.
Capítulo 4. Introducción al paralelismo y al rendimiento. 4.1. Magnitudes y medidas del rendimiento. En esta sección se definirán algunas de las medidas más utilizadas a la hora de determinar el rendimiento
Más detallesSistemas con Microprocesadores I
Sistemas con Microprocesadores I 1 Microcontroladores Introducción Harvard vs. von-neumann Clasificación del procesador Segmentado o Pipeline Ortogonal vs. No ortogonal 2 Microcontroladores PIC Siglas
Más detallesSistemas Operativos. Algo de Sistemas Operativos, Arquitecturas y Paralelismo
Sistemas Operativos Algo de Sistemas Operativos, Arquitecturas y Paralelismo 1 Qué es un Sistema Operativo? Administra recursos Arma una máquina virtual Comunicación con el usuario Facilita el uso (herramientas,
Más detallesPROGRAMA INSTRUCCIONAL FUNDAMENTO PARA EL DISEÑO DE SISTEMAS CON MICROPROCESADORES
UNIVERSIDAD FERMÍN TORO VICE RECTORADO ACADÉMICO FACULTAD DE INGENIERÍA ESCUELA DE COMPUTACIÓN PROGRAMA INSTRUCCIONAL FUNDAMENTO PARA EL DISEÑO DE SISTEMAS CON MICROPROCESADORES CÓDIGO ASIGNADO SEMESTRE
Más detallesFundamentos del Diseño de Computadores
Fundamentos del Diseño de Computadores Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS
Más detallesDefinición de Arquitectura
Definición de Arquitectura Arquitectura de los Computadores Personales Luis J. Saiz Adalid 1 Resumen Evolución del rendimiento de los computadores Concepto de arquitectura Tendencias Análisis de prestaciones
Más detallesObjetivos. Objetivos. Arquitectura de Computadores. R.Mitnik
Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo
Más detallesDepartamento Ingeniería en Sistemas de Información
ASIGNATURA: ARQUITECTURA DE MODALIDAD: COMPUTADORAS DEPARTAMENTO: ING. EN SIST. DE INFORMACION HORAS SEM.: Anual 4 horas AREA: COMPUTACIÓN HORAS/AÑO: 128 horas BLOQUE TECNOLOGÍAS BÁSICAS HORAS RELOJ 96
Más detallesAspectos avanzados de arquitectura de computadoras Multithreading. Facultad de Ingeniería - Universidad de la República Curso 2017
Aspectos avanzados de arquitectura de computadoras Multithreading Facultad de Ingeniería - Universidad de la República Curso 2017 Introducción En este capítulo se explorará la posibilidad de ejecutar múltiples
Más detallesRevisión de Conceptos. Estructura de un Computador von Neumann. Arquitectura de Computadores I Introducción
Revisión de Conceptos. Estructura de un Computador von Neumann Arquitectura de Computadores I Introducción Objetivo Análisis de la estructura y funcionamiento de los computadores: naturaleza y características
Más detallesQuinta tarea: Existen varias versiones del 80486:
Quinta tarea: Los primeros procesadores utilizados en los PC fueron los procesadores 8088 y 8086. Sus principales diferencias con el 80286 es que el segundo permite multitarea, tenía una velocidad de reloj
Más detallesArquitecturas de Computadoras II
Programa de la Asignatura: Arquitecturas de Computadoras II Código: 26 Carrera: Ingeniería en Computación Plan: 2013 Carácter: Obligatoria Unidad Académica: Secretaría Académica Curso: Tercer año Segundo
Más detallesArquitecturas Paralelas Examen de Febrero 24 Enero 2005
Universidad del País Vasco Facultad de Informática Dpto. de Arquitectura y Tecnología de Computadores Arquitecturas Paralelas Examen de Febrero 24 Enero 2005 Apellidos: Nombre: Grupo: Firma: 1 / 2 / 3
Más detallesRepaso de Arquitectura y Organización Criterios de clasificación
Repaso de Arquitectura y Organización Criterios de clasificación William Stallings, Organización y Arquitectura de Computadores Andrew S. Tanenbaum, Organización de Computadoras Linda Null y Julia Lobur,
Más detallesIntroducción a los Sistemas. Distribuidos
Construcción de Sistemas Distribuidos Introducción a los Sistemas Distribuidos Rogelio Ferreira Escutia Contenido 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos
Más detallesModelos de Programación Paralela Prof. Gilberto Díaz
Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Modelos de Programación Paralela Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería
Más detallesIntel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
Más detalles1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño. Tema5: Sistemas Operativos Distribuidos
Tema 5: Sistemas Operativos Distribuidos 1. Introducción 2. S.O. de Red. NFS 3. S.O. Distribuidos 4. Características de Diseño 1 1. Introducción Sistema Informático Distribuido: Colección de S.I. autónomos
Más detallesOrganización del Computador I. Introducción e Historia
Organización del Computador I Introducción e Historia Introducción Qué es una computadora? Stallings: Máquina digital electrónica programable para el tratamiento automático de la información, capaz de
Más detalles6. PROCESADORES SUPERESCALARES Y VLIW
6. PROCESADORES SUPERESCALARES Y VLIW 1 PROCESADORES SUPERESCALARES Y VLIW 1. Introducción 2. El modelo VLIW 3. El cauce superescalar 4. Superescalar con algoritmo de Tomasulo 2 PROCESADORES SUPERESCALARES
Más detallesFecha de entrega: Miércoles 4 de Septiembre. Campus: Villahermosa. Carrera : Ingeniería en Sistemas Compuacionales. Nombre del maestro: Carlos Castro
Nombre del estudiante: Giovanna Kristhel Mendoza Castillo Nombre del trabajo: Investigación sobre los Sistemas Operativos distribuidos Fecha de entrega: Miércoles 4 de Septiembre Campus: Villahermosa Carrera
Más detalles1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento.
1.1. Modelos de arquitecturas de cómputo: clásicas, segmentadas, de multiprocesamiento. Arquitecturas Clásicas. Estas arquitecturas se desarrollaron en las primeras computadoras electromecánicas y de tubos
Más detalles1. Introducción a la Arquitectura de Computadoras
1. Introducción a la Arquitectura de Computadoras M. Farias-Elinos Contenido Definiciones Estructura de una computadora Evolución de las computadoras Generaciones de computadoras Evolución de la família
Más detallesEl microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza.
El microprocesador (CPU). Ingeniería Informática. Ing. Miguel Angel Mendoza Mendoza. Contenido de la unidad. 1.1. Arquitectura básica y sus operaciones. 1.2. Tipos de arquitecturas en la evolución del
Más detallesArquitectura de Computadores. Tema 15. Buses
Arquitectura de Computadores Tema 15 Buses Eduardo Daniel Cohen dcohen@arnet.com.ar http://www.herrera.unt.edu.ar/arqcom 1 CONCEPTO DE BUS Un Bus es: Un conjunto de cables que se usa para conectar múltiples
Más detallesARQUITECTURA DE COMPUTADORAS I. Propósito del curso : Al final del curso el estudiante: Ingeniería Ingeniería en Sistemas.
UNIVERSIDAD AUTÓNOMA DE CHIHUAHUA Clave: 08MSU0017H Clave: 08USU4053W FACULTAD DE INGENIERÍA PROGRAMA DEL CURSO: ARQUITECTURA DE COMPUTADORAS I DES: Ingeniería Ingeniería en Sistemas Programa(s) Educativo(s):
Más detallesGUÍA DE APRENDIZAJE ARQUITECTURAS PARALELAS
GUÍA DE APRENDIZAJE ARQUITECTURAS PARALELAS Datos Descriptivos TITULACIÓN: CENTROS IMPLICADOS: GRADO EN INGENIERIA DE COMPUTADORES E.U. DE INFORMATICA CICLO: Grado sin atribuciones MÓDULO: MATERIA: Optativa
Más detallesSistemas Operativos. Curso 2016 Introducción
Sistemas Operativos Curso 2016 Introducción Agenda Introducción a los sistemas operativos. Evolución histórica de los sistemas operativos: Sistemas por lotes. Sistemas por lotes multiprogramados. Sistemas
Más detallesGUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES
GUÍA DE APRENDIZAJE ARQUITECTURA DE COMPUTADORES GRADO EN INGENIERIA DE COMPUTADORES Datos Descriptivos CENTRO RESPONSABLE: E.U. DE INFORMATICA OTROS CENTROS IMPLICADOS: CICLO: Grado sin atribuciones MÓDULO:
Más detallesTendencias y Evaluación
Tendencias y Evaluación Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento de
Más detallesARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte)
ARQUITECTURA E INGENIERÍA DE LOS COMPUTADORES (Segunda Parte) Profesor: Fernando Pardo Carpio Valencia, 27 de septiembre de 2004 Prefacio El temario recogido en estos apuntes se corresponde con la segunda
Más detalles2EMHWLYRV 5HIHUHQFLDV. Procesadores vectoriales
7HPD0XOWLSURFHVDGRUHV 2EMHWLYRV 5HIHUHQFLDV,QWURGXFFLyQ $UTXLWHFWXUDVFHQWUDOL]DGDVGHPHPRULDFRPSDUWLGD $UTXLWHFWXUDVGLVWULEXLGDVGHPHPRULDFRPSDUWLGD 6LQFURQL]DFLyQ 0XOWLFRPSXWDGRUHV 1 esadores vectoriales
Más detallesLey de Amdahl Ley de Moore Prof. Gilberto Díaz
Universisdad de Los Andes Facultad de Ingeniería Escuela de Sistemas Ley de Amdahl Ley de Moore Prof. Gilberto Díaz gilberto@ula.ve Departamento de Computación, Escuela de Sistemas, Facultad de Ingeniería
Más detallesSistemas Operativos Distribuidos. Sistemas Operativos Una visión aplicada
Bibliografía Sistemas Operativos Distribuidos Ing. Alfonso Guijarro Rodríguez alfonso_guijarro@yahoo.es Sistemas Operativos Distribuidos Andrew S. Tanenbaum. 1996, Prentice-Hall Capítulo 1 última edición
Más detallesMINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC
MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología
Más detallesBases de Datos Paralelas. Carlos A. Olarte BDII
Carlos A. Olarte (carlosolarte@puj.edu.co) BDII Contenido 1 Introducción 2 Paralelismo de I/O 3 Paralelismo entre Consultas 4 OPS Introducción Por qué tener bases de datos paralelas? Tipos de arquitecturas:
Más detallesIntroducción a los procesadores ILP (Instruction-Level Parallel)
Introducción a los procesadores ILP (Instruction-Level Parallel) Herramientas básicas para conseguir paralelismo entre instrucciones: Encauzamiento (pipelining) Se usa en todo procesador ILP Utilizar varias
Más detallesMICROPROCESADOR. Ing. Raúl Rojas Reátegui
MICROPROCESADOR Ing. Raúl Rojas Reátegui OBJETIVOS Al termino de la sesión el estudiante será capaz de: Describir las principales características de un Microprocesador. Describir las principales características
Más detallesObjetivos Generales. Conocimientos Previos Recomendados. CONTENIDOS TEORICOS (Temporización)
Año académico: 2005-2006 Centro: Escuela Politécnica Superior Departamento: Arquitectura de Computadores y Electrónica Área: Arquitectura y Tecnología de Computadores Estudios: Ingeniero Técnico en Informática
Más detallesEVOLUCIÓN HISTÓRICA DE LOS µp
EVOLUCIÓN HISTÓRICA DE LOS µp El primer procesador fue inventado por los Babilonios en el año 500 ac En 1642 se perfeccionó la primera calculadora por Blas Pascal A mediados del siglo pasado se inventaron
Más detallesArquitectura de Computadores
Arquitectura de Computadores 1. Introducción 2. La CPU 3. Lenguaje Máquina 4. La Memoria 5. Sistemas de Entrada/Salida 6. CPU Segmentada (Pipeline) 7. Memoria Caché 8. Arquitecturas RISC Arquitectura de
Más detallesRedes de Interconexión
Redes de Interconexión José M. Cámara (checam@ubu.es) v. 1.0 Redes de interconexión Estáticas o directas: formadas por enlaces permanentes, punto a punto, entre los diferentes nodos de la red. Dinámicas
Más detallesAlgoritmos paralelos para la Multiplicación de Matrices
Introducción Paralelizar onclusiones Trabajo ibliografía lgoritmos paralelos para la Multiplicación de Matrices Universidad de Murcia - UM 18 de diciembre de 2008 Introducción Paralelizar onclusiones Trabajo
Más detallesAspectos avanzados de arquitectura de computadoras Pipeline. Facultad de Ingeniería - Universidad de la República Curso 2017
Aspectos avanzados de arquitectura de computadoras Pipeline Facultad de Ingeniería - Universidad de la República Curso 2017 Objetivo Mejorar el rendimiento Incrementar frecuencia de reloj? Ancho de los
Más detallesArquitectura del CPU. Organización del Computador 1 Verano 2016
Arquitectura del CPU Organización del Computador 1 Verano 2016 Agenda De dónde venimos? Introducción: esquema de una computadora Representación de la información Circuitos Combinatorios Circuitos Secuenciales
Más detallesProcesadores superescalares. Introducción
Procesadores superescalares Introducción Introducción El término superescalar (superscalar) fue acuñado a fines de los 80s. Todas las CPUs modernas son superescalares. Es un desarrollo de la arquitectura
Más detallesProcesadores Superescalares v.2014
Procesadores Superescalares v.2014 J. Smith and G. Sohi, The Microarchitecture of Superscalar Processors. Proceedings IEEE, Vol. 83, No. 12, Diciembre 1995. William Stallings, Organización y Arquitectura
Más detallesIndice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida
Tema 8: Multiprocesadores de memoria compartida y distribuida Indice 1. Introducción al procesamiento paralelo 2. Estructura de los multiprocesadores de memoria compartida 3. Medio de interconexión de
Más detallesPlataformas paralelas
Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados
Más detallesRendimiento de computadores
+ Prof. José María Foces Morán Dept. IESA Universidad de León Rendimiento de computadores Tiempo de ejecución Tiempo de CPU Rendimiento comparativo Ley de Amdahl Ley de Gustaffson + Computador síncrono
Más detallesArquitectura de Computadores
Universidad Politécnica de Madrid Departamento de Informática Aplicada Notas y Transparencias de Arquitectura de Computadores CPU Memorias Controladores de E/S Paco Aylagas Reservados todos los derechos.
Más detallesMP - Multiprocesadores
Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA
Más detallesTema 0. Introducción al Paralelismo y Organización de un Computador
Tema 0. Introducción al Paralelismo y Organización de un Computador Organización de Computadores LUIS ENRIQUE MORENO LORENTE RAÚL PÉRULA MARTÍNEZ ALBERTO BRUNETE GONZALEZ DOMINGO MIGUEL GUINEA GARCIA ALEGRE
Más detallesESCUELA DE INGENIERIA Informática Y Sistemas
ESCUELA DE INGENIERIA Informática Y Sistemas ASIGNATURA SISTEMAS OPERATIVOS CODIGO ST0257 SEMESTRE 2013-2 INTENSIDAD HORARIA 64 horas semestral CARACTERÍSTICAS Suficientable CRÉDITOS 4 1. JUSTIFICACIÓN
Más detallesEstructura de un Ordenador
Estructura de un Ordenador 1. Unidad Central de Proceso (CPU) 2. Memoria Principal 3. El Bus: La comunicación entre las distintas unidades 4. La unión de todos los elementos: la placa Base Estructura de
Más detallesMemoria compartida simétrica
Memoria compartida simétrica Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Grupo ARCOS Departamento
Más detallesGUÍA DOCENTE ABREVIADA DE LA ASIGNATURA
GUÍA DOCENTE ABREVIADA DE LA ASIGNATURA G650 - Organización de Computadores Grado en Ingeniería Informática Curso Académico 2015-2016 1. DATOS IDENTIFICATIVOS Título/s Grado en Ingeniería Informática Tipología
Más detallesIntroducción a la computación paralela
Introducción a la computación paralela M. en C. Antulio Morgado Valle Jefe del Departamento de Electrónica del CINTEC-IPN. n este artículo se desea presentar al lector una revisión E de conceptos básicos
Más detallesUNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCIÓN
UNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCIÓN Teoría y Aplicación de la Informática 2 VS Autores: Roberto A. Demestri R. Luis F. Martínez Miranda. Setiembre - 2001 Indice Título Pag. Indice 2 AMD
Más detalles1.2.-Analisis de los componentes
1.2.-Analisis de los componentes 1.2.1.-CPU La Unidad Central de Proceso (conocida por sus siglas en inglés, CPU). Es el lugar donde se realizan las operaciones de cálculo y control de los componentes
Más detallesTema 7: Procesadores superescalares
Tema 7: Procesadores superescalares Arquitectura de Computadores y Sistemas Operativos I 4º Curso Plan 96 Escuela Técnica Superior Ingenieros Telecomunicaciones DISCA Tema 7: Procesadores superescalares
Más detallesAC2 - Arquitectura de Computadores II
Unidad responsable: 270 - FIB - Facultad de Informática de Barcelona Unidad que imparte: 701 - AC - Departamento de Arquitectura de Computadores Curso: Titulación: 2016 GRADO EN INGENIERÍA INFORMÁTICA
Más detalles3. Estructura básica de un computador convencional.
Índice 1. Objetivos de la asignatura. 2. Niveles de descripción ió de un computador. 3. Estructura básica de un computador convencional. 4. Evolución histórica: tecnología y arquitectura. 5. Lenguajes
Más detallesArquitectura de Computadoras
Arquitectura de Computadoras Clase 7 Memoria Sistema de Memoria Los programadores desean acceder a cantidades ilimitadas de memoria rápida!! Solución práctica: Jerarquía de memoria organizada en niveles
Más detalles