Procesadores Superescalares
|
|
|
- María Márquez Vega
- hace 7 años
- Vistas:
Transcripción
1 Departamento de Electrónica y Circuitos EC3731 Arquitectura del Computador II Prof. Osberth De Castro Prof. Juan C. Regidor Prof. Mónica Parada Segmentación de Cauce y Paralelismo Multiples unidades de ejecución: Procesadores Superescalares Unidad para Carga y Almacenamiento Unidades de Cálculo Entero Unidades de Cálculo en Punto Flotante. Paralelismo a Nivel de Instrucciones (Instruction Level Parallelism, ILP) Paralelismo a Nivel de Instrucciones y Máquina Procesadores Superescalares Planificación Dinámica de Ejecución Dependencias y Riesgos Paralelismo a Nivel de Instrucciones 2 Mas allá del Cauce Segmentado Dependencias de datos típica. Posible Finalización Desordenada de Instrucciones: Conflictos por orden de escritura en registros. Cauce Segmentado Cauce Supersegmentado Instrucciones (pipeline) (Superpipelined) Cauce Superescalar (Superscalar) 3 Tiempo 4
2 Procesador Superescalar: Estructura Básica Procesador Superescalar Características Procesador de N Cauces Ejecución Paralela de N instrucciones. Es posible la Ejecución Desordenada de instrucciones. Se mantienen los Riesgos del Cauce Segmentado (Pipeline Hazards) Gran complejidad de circuitos y algoritmos de control. 5 6 Procesador Superescalar Flujo de Instrucciones Procesador Superescalar Organización típica del Núcleo de Ejecución Banco de Registros de Enteros Banco de Registros de Punto Flotante Unidades de Ejecución Segmentadas Operadores de Enteros Operadores de acceso a Memoria Operadores de Punto Flotante: add, sub, and, or, Load, Store, Add, sub, mul, div, 7 8
3 Procesador Superescalar MIPS R10000 (MIDAS/Sihan-Fuss07) Consideraciones para la Ejecución Paralela de Instrucciones Paralelismo de Instrucciones Dependencia de Datos. Dependencia por Saltos. Conflicto de Recursos. Dependencias por alteración del Orden de Ejecución: Conflicto entre 2 escrituras de un mismo Registro. Conflicto entre lecturas y Escrituras de un mismo Registro. Paralelismo de Máquina Planificación Dinámica Orden de Captación de las Instrucciones (desde la Memoria) Cuántas a la vez? Cuáles? Orden de Emisión de las Instrucciones (a las Unidades de Ejecución) Ordenada Desordenada Orden de Finalización de las Instrucciones (escritura de Registros / Memoria). Ordenada Desordenada 9 10 Paralelismo de Instrucciones y de Máquina Instrucciones Independientes Dependencia de Datos (i1 necesita el resultado de i2) Dependencia por Salto (i2 es la instrucción Objetivo del Salto) Conflicto de Recursos (i0 e i1 usan la misma unidad funcional) 11 Paralelismo de Instrucciones Dependencia por Saltos ó Dependencia Relativa al Procedimiento Predicción de saltos: Dinámica + Estática Saltó Saltó Saltar No Saltar No Saltó No Saltó Saltó Saltar Ejecución Especulativa: Se ejecutan instrucciones de ambas ramas posteriores al salto condicional, guardándose los resultados en Buffers. Cuando se tiene el objetivo del salto, se finalizan sólo las instrucciones de la rama objetivo. 12 No Saltó No Saltar No Saltó
4 Paralelismo de Instrucciones Dependencias de Datos generadas por Ejecución Desordenada Paralelismo de Instrucciones Dependencias de Datos generadas por Ejecución Desordenada Dependencia de Salida ó Dependencia WAW (Write After Write) Antidependencia ó Dependencia WAR (Write After Read) I1:R3 = R3 (op) R5 I2:R4 = R3 + 1 I3:R3 = R5 + 1 I4:R7 = R3 (op) R4 Si I3 Termina (1) antes que I1, I4 usará un valor incorrecto de R3 I1:R3 = R3 (op) R5 I2:R4 = R3 + 1 I3:R3 = R5 + 1 I4:R7 = R3 (op) R4 Si I3 Termina (1) antes de que I2 lea R3, I2 usará un valor incorrecto de R3 (1) La Finalización de una instrucción es la escritura del resultado en el registro correspondiente. 13 (1) La Finalización de una instrucción esla escritura del resultado en el registro correspondiente. 14 Paralelismo de Máquina Políticas de Ejecución de Instrucciones Emisión Ordenada y Finalización Ordenada Dependencia Verdadera (RAW) Emisión Ordenada y Finalización Desordenada Dependencia Verdadera (RAW) Dependencia de Salida (WAW) Emisión Desordenada y Finalización Desordenada Dependencia Verdadera (RAW) Dependencia de Salida (WAW) Antidependencia (WAR) Ejemplo de Ejecución Superescalar Especificaciones del procesador Captación: 2 instrucciones a la vez. Ejecución: 3 Unidades funcionales independientes. Escritura: 2 Unidades de Escritura. Especificaciones de un programa de 6 Instrucciones I1 tarda 2 ciclos en ejecutarse. I3 e I4 usan la misma unidad funcional. I5 depende de un valor producido por I4. I5 e I6 usan la misma unidad funcional 15 16
5 Ejemplo de Ejecución Superescalar Ejemplo de Ejecución Superescalar Emisión Ordenada y Finalización Ordenada Emisión Ordenada y Finalización Desordenada Especificaciones del procesador Captación: 2 instrucciones a la vez. Ejecución: 3 Unidades funcionales independientes. Escritura: 2 Unidades de Escritura. Especificaciones del programa I1 tarda 2 ciclos en ejecutarse. I3 e I4 usan la misma unidad funcional. I5 depende de un valor producido por I4. I5 e I6 usan la misma unidad funcional Condición Especial de esta política La emisión de instrucciones se detiene si hay conflicto de recursos ó si una instrucción requiere mas de 1 ciclo de ejecución. Unidades de Decodificación Unidades de Ejecución Unidades de Escritura Ciclos Especificaciones del procesador Captación: 2 instrucciones a la vez. Ejecución: 3 Unidades funcionales independientes. Escritura: 2 Unidades de Escritura. Especificaciones del programa I1 tarda 2 ciclos en ejecutarse. I3 e I4 usan la misma unidad funcional. I5 depende de un valor producido por I4. I5 e I6 usan la misma unidad funcional Condición Especial de esta política La emisión de instrucciones se detiene si hay conflicto de recursos ó dependencia de datos / saltos. Unidades de Decodificación Unidades de Ejecución Unidades de Escritura Ciclos EMISION TERMINACION EMISION TERMINACION Ejemplo de Ejecución Superescalar Ejemplo de Ejecución Superescalar Especificaciones del procesador Captación: 2 instrucciones a la vez. Ejecución: 3 Unidades funcionales independientes. Escritura: 2 Unidades de Escritura. Especificaciones del programa I1 tarda 2 ciclos en ejecutarse. Emisión Desordenada y Finalización Desordenada I3 e I4 usan la misma unidad funcional. I5 depende de un valor producido por I4. I5 e I6 usan la misma unidad funcional Decodificación Ventana Buffer de Instrucciones Unidades de Ejecución Unidades de Escritura Emision Ordenada Y Finalización Ordenada Emision Ordenada Y Finalización Desordenada Emision Desordenada Y Instrucción I1 F1 D1 E1 E1 W1 I2 F2 D2 E2 E2 W2 I3 F1 D1 D1 E3 W1 I4 F2 D2 D2 D2 E3 W1 I5 F1 F1 F1 D1 E2 W1 I6 F2 F2 F2 D2 D2 E2 W1 I1 F1 D1 E1 E1 W1 I2 F2 D2 E2 W1 I3 F1 D1 E3 W2 I4 F2 D2 D2 E3 W1 I5 F1 F1 D1 E2 W1 I6 F2 F2 D2 D2 E2 W1 I1 F1 D1 E1 E1 W1 I2 F2 D2 E2 W1 I3 F1 D1 E3 W2 Ciclos Finalización Desordenada I4 F2 D2 ventana E3 W1 I5 F1 D1 ventana E2 W1 I6 F2 D2 E2 W2 EMISION TERMINACION 19 20
6 Resolución de Conflictos de Almacenamiento Evitar atascos debido a Dependencias de Salida (WAW) y Antidependencias (WAR) Asignación Dinámica de Registros Físicos. A cada nuevo Registro Destino se le asigna un nuevo registro físico, que será repetido como fuente en las instrucciones que usen ese resultado. I1:R3 b = R3 a (op) R5 a I2:R4 = R3 b + 1 I3:R3 = R5 + 1 c a I4:R7 = R3 (op) R4 b c El Registro R3 b es un registro físico distinto a R3 c. Algoritmo de Tomasulo para Secuenciación Dinámica Diseñado para el IBM 360/91 en años después del CDC 6600 Meta: Alto rendimiento sin compiladores especiales Diferencias entre el IBM 360 y el CDC 6600 IBM tiene instrucciones registro memoria IBM tiene 4 FP registros vs. 8 del CDC 6600 IBM tiene Unidades funcionales segmentadas (3 el adds y 2 el mult) El Algoritmo de Tomasulo maneja las dependencias WAW y WAR eficientemente utilizando renombramiento de registros SUB F1, F2, F0 DIVF F2, F3, F2 ADDF F3, F0, F0 MULF F3, F1, F1 21 Arquitectura para Tomasulo 24
7 Componentes de una Estación de Reserva Op Operación que realizará la unidad (ejemplo, + ó ) Qj, Qk Estaciones de Reserva que producen datos necesarios en registros fuente. Vj, Vk Valor de operandos fuente Rj, Rk Banderas que indican si Vj, Vk ya estàn disponibles. Busy Indica si la Estación de Reserva y la FU están en uso. Estado del Registro Resultado Indica cual FU escribirá en cada registro, si lo hay. Un campo por registro, y están en blanco cuando no hay instrucciones pendientes por escribir el registro. Etapas del Algoritmo de Tomasulo 1.Emisión Tomar instrucción de la cola de Operaciones FP (FP Op Queue) Si hay un Slot en la Estación de Reserva de la correspondiente FU, emite la instrucción y envía los operandos (y renombra los registros si es necesario). 2.Ejecución Operación (EX) Ejecutar la operación si se tienen los 2 operandos. Si no, esperar por el resultado del bus CDB. 3.Escribir Resultado (WB) Escribir en el Bus Común de Datos (CDB). Liberar Slot en la Estación de Reserva de origen. Ejemplo Tomasulo Ciclo 0 Ejemplo Tomasulo Ciclo 1 Yes
8 Ejemplo Tomasulo Ciclo 2 Ejemplo Tomasulo Ciclo 3 Ejemplo Tomasulo Ciclo 4 Ejemplo Tomasulo Ciclo 5
9 Ejemplo Tomasulo Ciclo 6 Ejemplo Tomasulo Ciclo 7 Ejemplo Tomasulo Ciclo 8 Ejemplo Tomasulo Ciclo 9
10 Ejemplo Tomasulo Ciclo 10 Ejemplo Tomasulo Ciclo 11 6 Ejemplo Tomasulo Ciclo 12 Ejemplo Tomasulo Ciclo 13
11 Ejemplo Tomasulo Ciclo 14 Ejemplo Tomasulo Ciclo 15 Ejemplo Tomasulo Ciclo 16 Ejemplo Tomasulo Ciclo 18
12 Ejemplo Tomasulo Ciclo 55 Ejemplo Tomasulo Ciclo 56 Ejemplo Tomasulo Ciclo 59 Resumen de Secuenciación con Algoritmo de Tomasulo Ventajas Previene los cuellos de botella por registros. Maneja dependencias WAR y WAW Permite desenrollado de lazos por Hardware. El Bus Común de Datos (CDB) Ofrece resultado a múltiples instrucciones. Es un cuello de botella en sí mismo. Contribuciones que permanecen hasta hoy Secuenciaciòn Dinàmica Renombramiento de Registros Separación de Load y Store como unidades.
Arquitectura de Computadoras. Clase 8 Procesadores superescalares
Arquitectura de Computadoras Clase 8 Procesadores superescalares Procesador Escalar Ejecución secuencial de instrucciones F: búsqueda D: decodificación F D ALU F D ALU F D ALU Instrucción 1 Instrucción
ARQUITECTURA DE COMPUTADORAS
2-12-2012 INSTITUTO TECNOLÓGICO DE CHIHUAHUA II ARQUITECTURA DE COMPUTADORAS Cuestionario Unidad 4 Claudia Cristina Enríquez Zamarrón 10 55 05 10 Laura Michell Montes Blanco 10 55 05 02 INTRODUCCIÓN: En
6. PROCESADORES SUPERESCALARES Y VLIW
6. PROCESADORES SUPERESCALARES Y VLIW 1 PROCESADORES SUPERESCALARES Y VLIW 1. Introducción 2. El modelo VLIW 3. El cauce superescalar 4. Superescalar con algoritmo de Tomasulo 2 PROCESADORES SUPERESCALARES
Tema 1: PROCESADORES SEGMENTADOS
Tema 1: PROCESADORES SEGMENTADOS 1.1. Procesadores RISC frente a procesadores CISC. 1.2. Clasificación de las arquitecturas paralelas. 1.3. Evaluación y mejora del rendimiento de un computador. 1.4. Características
CAPÍTULO 2 PROCESADORES SUPERESCALARES
CAPÍTULO 2 PROCESADORES SUPERESCALARES INTRODUCCIÓN Características de los procesadores superescalares Paralelismo Diversificación Dinamismo Arquitectura de un procesador superescalar genérico Características
Planificación dinámica - Concepto
Planificación dinámica - Concepto Despacho y ejecución en orden: una limitación. Stall también detiene a operaciones independientes. DIVD F0,F2,F4 ADDD F10,F0,F8 SUBD F12,F8,F14 (1) (2) (3) No siempre
Paralelismo al nivel de instrucciones
Paralelismo al nivel de instrucciones Arquitectura de Computadoras M. C. Felipe Santiago Espinosa Mayo de 2017 Qué es la segmentación o pipelining? O Técnica para la generación de paralelismo en microprocesadores.
Tema 9. Planificación dinámica de instrucciones II: Algoritmo de Tomasulo
Tema 9. Planificación dinámica de instrucciones II: Algoritmo de Tomasulo Organización de Computadores LUIS ENRIQUE MORENO LORENTE RAÚL PÉRULA MARTÍNEZ ALBERTO BRUNETE GONZALEZ DOMINGO MIGUEL GUINEA GARCIA
Seminario 1: Procesadores paralelos
Seminario 1: Procesadores paralelos Índice Introducción Procesadores superescalares Procesadores VLIW Procesadores vectoriales Índice Introducción Procesadores superescalares Procesadores VLIW Procesadores
Arquitectura de Computadores II Clase #16
Arquitectura de Computadores II Clase #16 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2010 Organización general Superescalar Varios pipelines. 2 operaciones enteras,
Arquitectura de Computadores Problemas (hoja 2). Curso
Arquitectura de Computadores Problemas (hoja 2). Curso 2012-13 1. Sea la siguiente secuencia de código de instrucciones en punto flotante para un computador similar al DLX que aplica gestión dinámica de
Superescalares. Scheduling dinámico: algoritmo de Tomasulo
Superescalares Scheduling dinámico: algoritmo de Tomasulo Introducción Scheduling dinámico significa que la CPU (el hardware) puede reordenar las instrucciones. La mayoría de las CPUs de escritorio son
Tema 7: Procesadores superescalares
Tema 7: Procesadores superescalares Arquitectura de Computadores y Sistemas Operativos I 4º Curso Plan 96 Escuela Técnica Superior Ingenieros Telecomunicaciones DISCA Tema 7: Procesadores superescalares
Procesadores superescalares. Introducción
Procesadores superescalares Introducción Introducción El término superescalar (superscalar) fue acuñado a fines de los 80s. Todas las CPUs modernas son superescalares. Es un desarrollo de la arquitectura
Arquitectura de Computadores II Clase #16
Arquitectura de Computadores II Clase #16 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2009 Organización general Superescalar Varios pipelines 2 ops. Enteras, 2 de
Tutorías con Grupos Reducidos (TGR) Sesión 2: Paralelismo a Nivel de Instrucción
Tutorías con Grupos Reducidos (TGR) Sesión 2: Paralelismo a Nivel de Instrucción ESTRUCTURA DE COMPUTADORES Grupo de Arquitectura de Computadores (GAC) Dyer Rolán García (GAC) Paralelismo a nivel de instrucción
Unidad 4 - Procesamiento paralelo. Arquitectura de computadoras. D o c e n t e : E r n e s t o L e a l. E q u i p o : J e s s i c a F i e r r o
Unidad 4 - Procesamiento paralelo. D o c e n t e : E r n e s t o L e a l E q u i p o : J e s s i c a F i e r r o L u i s N a v e j a s Arquitectura de computadoras Introducción Cuestionario Conclusiones
Apellidos Nombre Grupo. Arquitectura e Ingeniería de Computadores. Examen Final (Teoría parte primer cuatrimestre). 18/06/2012
Apellidos Nombre Grupo Arquitectura e Ingeniería de Computadores. Examen Final (Teoría parte primer cuatrimestre). 18/06/2012 Instrucciones.- Cada pregunta consta de cinco afirmaciones, y cada una de las
3. SEGMENTACIÓN DEL CAUCE
3. SEGMENTACIÓN DEL CAUCE 1 SEGMENTACIÓN DEL CAUCE 1. Conceptos básicos 2. Etapas del MIPS64 3. Riesgos 4. Operaciones muticiclo 2 SEGMENTACIÓN DEL CAUCE 1. Conceptos básicos 3 Conceptos básicos Ciclo
Arquitectura e Ingeniería de Computadores. Examen Parcial. 7/02/2012
Apellidos Nombre Grupo: Arquitectura e Ingeniería de Computadores. Examen Parcial. 7/02/2012 Instrucciones.- Cada pregunta consta de cinco afirmaciones, y cada una de las afirmaciones puede ser cierta
PLANIFICACIÓN DINÁMICA
PLANIFICACIÓN DINÁMICA También denominada reordenación dinámica de instrucciones La emisión puede hacerse fuera de orden Consideremos DIV.D F0, F2, F4 ADD.D F10, F0, F8 SUB.D F12, F8, F14 DIV.D tiene una
Cuestionario Unidad 4: Procesamiento paralelo 2012
SEP SNEST DGEST INSTITUTO TECNOLÓGICO DE CHIHUAHUA II INGENIERÍA EN SISTEMAS COMPUTACIONALES ARQUITECTURA DE COMPUTADORAS Ing. Ernesto Leal Procesamiento paralelo ELABORADO POR: Miguel Angel Chávez Reza
Planificación Dinámica - 1. Arquitectura de Computadores
Hasta ahora hemos visto que los procesadores en pipeline ejecutan varias instrucciones simultáneamente pero manteniendo el mismo orden del programa, es decir, dadas dos instrucciones i y j de un programa
Arquitectura de Computadores
Arquitectura de Computadores 1. Introducción 2. La CPU 3. Lenguaje Máquina 4. La Memoria 5. Sistemas de Entrada/Salida 6. Segmentación (Pipeline) MIPS 64 7. Memoria Caché 8. Arquitecturas RISC Arquitectura
Segmentación del ciclo de instrucción
Segmentación del ciclo de instrucción William Stallings, Organización y Arquitectura de Computadores, Capítulo 11: Estructura y función de la CPU. John Hennessy David Patterson, Arquitectura de Computadores
Aspectos avanzados de arquitectura de computadoras Pipeline. Facultad de Ingeniería - Universidad de la República Curso 2017
Aspectos avanzados de arquitectura de computadoras Pipeline Facultad de Ingeniería - Universidad de la República Curso 2017 Objetivo Mejorar el rendimiento Incrementar frecuencia de reloj? Ancho de los
Segmentación del ciclo de instrucción
Segmentación del ciclo de instrucción v.2012 William Stallings, Organización y Arquitectura de Computadores, Capítulo 11: Estructura y función de la CPU. John Hennessy David Patterson, Arquitectura de
Arquitectura de Computadores Problemas (hoja 4). Curso
Arquitectura de Computadores Problemas (hoja 4). Curso 2006-07 1. Sea un computador superescalar similar a la versión Tomasulo del DLX capaz de lanzar a ejecución dos instrucciones independientes por ciclo
Introducción a los procesadores ILP (Instruction-Level Parallel)
Introducción a los procesadores ILP (Instruction-Level Parallel) Herramientas básicas para conseguir paralelismo entre instrucciones: Encauzamiento (pipelining) Se usa en todo procesador ILP Utilizar varias
Arquitectura de Computadores II Clase #5
Arquitectura de Computadores II Clase #5 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2010 Algunas ideas para mejorar el rendimiento Obvio: incrementar la frecuencia
Arquitectura de Computadoras. Clase 4 Segmentación de Instrucciones
Arquitectura de Computadoras Clase 4 Segmentación de Instrucciones Segmentación de cauce: Conceptos básicos La segmentación de cauce (pipelining) es una forma particularmente efectiva de organizar el hardware
Arquitectura e Ingeniería de Computadores Problemas (hoja 3). Curso
Arquitectura e Ingeniería de Computadores Problemas (hoja 3). Curso 2006-07 1. Sea la siguiente secuencia de código de instrucciones en punto flotante para un computador similar al DLX que aplica gestión
PROCESADORES DE EMISIÓN MÚLTIPLE
PROCESADORES DE EMISIÓN MÚLTIPLE Cómo conseguir un CPI1)? Emitiendo varias instrucciones en un mismo ciclo de reloj Dos clases de procesadores de emisión múltiple Superescalares y VLIW (Very Long
Pipeline de instrucciones
Pipeline de instrucciones Manejo de Interrupciones Tipos: - Síncronas - Asíncronas Asíncronas: No están asociadas a ninguna instrucción. Se atienden normalmente al final de la instrucción en ejecución.
Arquitectura de Computadoras Trabajo Práctico N 8 Pipeline de Instrucciones 1 Primer Cuatrimestre de 2016
Departamento de Cs. e Ingeniería de la Computación Universidad Nacional del Sur Ejercicios Arquitectura de Computadoras Trabajo Práctico N 8 Pipeline de Instrucciones 1 Primer Cuatrimestre de 2016 1. La
Explotación del paralelismo a nivel de instrucción
Explotación del paralelismo a nivel de instrucción Arquitectura de Computadores J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato
Definición de prestaciones
Definición de prestaciones En términos de velocidad. Diferentes puntos de vista: Tiempo de ejecución. Productividad (throughput) Medidas utilizadas En función de la duración del ciclo de reloj y del número
Superescalares y VLIW - 1. Arquitectura de Computadores
Las técnicas que hemos visto en los capítulos anteriores las hemos utilizado para eliminar los distintos tipos de riesgos y conseguir la deseada tasa de ejecución de una instrucción por ciclo. No obstante,
PROCESADORES SUPER-ESCALARES
PROCESADORES SUPER-ESCALARES ARQUITECTURA DEL PROCESADOR II 1. De los procesadores escalares a los procesadores super-escalares En la materia ya hemos visto el pipeline de 5 etapas. 1 La idea básica entonces
TEMA 3. PLANIFICACIÓN (SCHEDULING) DE INSTRUCCIONES Arquitectura de Sistemas Paralelos 1. pág 2. direcc MEM
TEMA 3 PLANIFICACIÓN O REORDENAMIENTO (SCHEDULING) DE INSTRUCCIONES ÍNDICE 3.. CONCEPTOS FUNDAMENTALES 3., 3.4 PLANIFICACIÓN ESTÁTICA. DESENROLLADO DE BUCLES. 3.3. PLANIFICACIÓN DINÁMICA (Algoritmo Tomasulo).
HISTORIA DEL PIPELINE. Juan Antonio Romano Largo. Arquitectura de Computadores.
HISTORIA DEL PIPELINE CRONOLOGÍA Introducción ppo. S. XX IBM 704 1955 IBM 7030 (proyecto Stretch) 1956-1961 CDC 6600 1964 VAX 8800 1987 RISC vs CISC (MIPS vs VAX 8700) 1989 R4000 (Supersegmentado) 1991
Ejercicios de Paralelismo a Nivel de Instrucción
Ejercicios de Paralelismo a Nivel de Instrucción J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores Grupo
Paralelismo en monoprocesadores. Procesadores VLIW
Paralelismo en morocesadores Procesadores VLIW Profesor: Mag. Marcelo Tosini Cátedra: Arquitectura de Computadoras y técnicas Digitales Carrera: Ingeniería de Sistemas Ciclo: 4º año Arquitectura VLIW básica
Introducción PROCESADOR SUPERESCALAR. Paralelismo. Grado m: en cada ciclo se buscan/decodifican m instrucciones. supes
Introducción PROCESADOR SUPERESCALAR Paralelismo bus d/le eje mem es t ciclo seg =t ciclo supes Grado m: en cada ciclo se buscan/decodifican m instrucciones Introducción CICLOS POR INSTRUCCION tciclo identico
Procesadores Superescalares
Universidad de Concepción Facultad de Ingeniería Departamento de Ingeniería Informática y Ciencias de Computación Programa de Magíster en Ciencias de la Computación Tarea 3 Procesadores Superescalares
1. Motivación. 2. Procesadores superescalares. 3. Procesadores VLIW. 4. Procesadores supersegmentados.
TEMA 9: LANZAMIENTO MÚLTIPLE DE INSTRUCCIONES 1. Motivación. 2. Procesadores superescalares. 3. Procesadores VLIW. 4. Procesadores supersegmentados. Bibliografía: J.L. Hennessy & D. A. Patterson. Computer
Arquitectura de Computadoras Trabajo Práctico N 7 Pipeline de Instrucciones Primer Cuatrimestre de 2010
Departamento de Cs. e Ingeniería de la Computación Universidad Nacional del Sur Ejercicios Arquitectura de Computadoras Trabajo Práctico N 7 Pipeline de Instrucciones Primer Cuatrimestre de 2010 1. La
Segmentación del ciclo de instrucción v.2016
Segmentación del ciclo de instrucción v.2016 John Hennessy & David Patterson, Arquitectura de Computadores Un enfoque cuantitativo, 4ª edición Apéndice A (Capítulos 5 y 6 de la 1ª edición) Segmentación
PROCESADORES SUPER-ESCALARES
PROCESADORES SUPER-ESCALARES ARQUITECTURA DEL PROCESADOR II 1. De los procesadores escalares a los procesadores super-escalares En la materia ya hemos visto el pipeline de 5 etapas. 1 La idea básica entonces
2. SEGMENTACIÓN ENCAUZADA AVANZADA Y PARALELISMO DE INSTRUCCIONES: EJERCICIOS Y CUESTIONES
2. SEGMENTACIÓN ENCAUZADA AVANZADA Y PARALELISMO DE INSTRUCCIONES: EJERCICIOS Y CUESTIONES 2.1. Completa tus conocimientos del MIPS64 (una versión de MIPS). Debes aprender qué registros tiene, tipos de
Procesadores Superescalares
Procesadores Superescalares J. Smith and G. Sohi, The Microarchitecture of Superscalar Processors. Proceedings IEEE, Vol. 83, No. 12, Diciembre 1995. William Stallings, Organización y Arquitectura de Computadores,
Soluciones a ejercicios de Paralelismo a Nivel de instrucción
Soluciones a ejercicios de Paralelismo a Nivel de instrucción J. Daniel García Sánchez (coordinador) David Expósito Singh Javier García Blas Óscar Pérez Alonso J. Manuel Pérez Lobato Arquitectura de Computadores
Micro arquitectura. Técnicas Digitales III Ing. Gustavo Nudelman Universidad Tecnológica Nacional - Facultad Regional Buenos Aires
Micro arquitectura Técnicas Digitales III Ing. Gustavo Nudelman 2012 Evolución Ley de Moore Fundamentos CISC (Complex Instruction set Computer) instrucciones mas complejas y focalizadas RISC (Reduced Instruction
TEMA 2: PARALELISMO INTERNO EN SISTEMAS COMPUTADORES SEGMENTACION
SEGMENTACION SEGMENTACION SEGMENTACION I I I I I 1 2 3 4 5 IF ID EX MEM WB IF ID EX MEM WB IF ID EX MEM WB IF ID EX MEM WB IF ID EX MEM WB SEGMENTACION INTRODUCIR NUEVA INSTRUCCIÓN CADA CICLO 1 CICLO,
Procesadores de palabra de instrucción muy larga (VLIW) v.2012
Procesadores de palabra de instrucción muy larga (VLIW) v.2012 William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 13: Paralelismo a nivel de instrucciones y procesadores
2. SEGMENTACIÓN ENCAUZADA AVANZADA Y PARALELISMO DE INSTRUCCIONES: EJERCICIOS Y CUESTIONES
2. SEGMENTACIÓN ENCAUZADA AVANZADA Y PARALELISMO DE INSTRUCCIONES: EJERCICIOS Y CUESTIONES 2.1. Completa tus conocimientos del MIPS64 (una versión de MIPS). Debes aprender qué registros tiene, tipos de
TEMA 3 PROCESADORES VLIW (Very Long Instruction Word)
TEMA 3 PROCESADORES VLIW (Very Long Instruction Word) Esta arquitectura de CPU implementa una forma de paralelismo a nivel de instrucción. Es similar a las arquitecturas superescalares, ambas usan varias
Paralelismo en el procesador
2017 Paralelismo en el procesador ARQUITECTURA DE COMPUTADORAS ING. ELMER PADILLA AUTOR: GERARDO ROBERTO MÉNDEZ LARIOS - 20111013326 Ciudad universitaria, Tegucigalpa M.D.C., 04 de mayo del 2017. Contenido
1.2. Implementación de Procesadores Superescalares
1.2. Implementación de Procesadores Superescalares Técnicas dinámicas: Complejidad alta desde el p. de v. de estructura o arquitectura Aquí las instrucciones son las normales o clásicas : compatibilidad
Arquitectura del MIPS: Introducción
Arquitectura del MIPS: Introducción Montse Bóo Cepeda Este trabajo está publicado bajo licencia Creative Commons Attribution- NonCommercial-ShareAlike 2.5 Spain. Estructura del curso 1. Evolución y caracterización
Segmentación de cauce
Segmentación de cauce 11ª Semana Bibliografía: [HAM03] Cap.8 Organización de Computadores. Hamacher, Vranesic, Zaki. McGraw-Hill 2003 Signatura ESIIT/C.1 HAM org [STA8] Sec.12.4 Organización y Arquitectura
El nivel ISA (II)! Conjunto de Instrucciones
El nivel ISA (II) Conjunto de Instrucciones EC-2721 Arquitectura del Computador I Que es un Conjunto de Instrucciones? Colección completa de instrucciones comprendida por un procesador Lenguaje de máquina
Organización de Computadoras. Pipeline Continuación
Organización de Computadoras Pipeline Continuación Extensión del pipeline para manejar operaciones multiciclo (unpipelined) Extensión del pipeline para manejar operaciones multiciclo El pipeline del MIPS
Procesadores Superescalares v.2014
Procesadores Superescalares v.2014 J. Smith and G. Sohi, The Microarchitecture of Superscalar Processors. Proceedings IEEE, Vol. 83, No. 12, Diciembre 1995. William Stallings, Organización y Arquitectura
TEMA 3. ILP BASADO EN PLANIFICACIÓN DINÁMICA Sistemas Paralelos y Distribuidos 3º GIC. pág 1
TEMA 3 (Segunda Parte) PARALELISMO A NIVEL DE INSTRUCCIONES (ILP) BASADO EN TÉCNICAS DINÁMICAS ÍNDICE 3.1. Técnicas de Planificación dinámica: Algoritmo del marcador, Implementación del Algoritmo de Tomasulo,
Arquitectura de Computadores Problemas (hoja 2). Curso
Arquitectura de Computadores Problemas (hoja 2). Curso 2006-07 1. El siguiente fragmento de código se ejecuta en un DLX con segmentación: SUB R1,R2,R3 ADD R4,R5,R6 SUB R5,R4,R8 ADD R7,R2,R3 ADD R9,R7,R3
ARQUITECTURA DE COMPUTADORES. Práctica 8
ARQUITECTURA DE COMPUTADORES Práctica 8 Procesadores Segmentados: Introducción al simulador DLXIDE Evaluación de las prestaciones de la segmentación en el DLX Práctica 8: Procesadores Segmentados 1 de
1. Objetivo y evolución de los procesadores ILP.
Arquitectura de Computadores Tema 3: Procesadores ILP Índice. Objetivo y evolución de los procesadores ILP. 2. Segmentación (Pipeline).. Concepto y medida de rendimiento. i 2. Pipeline de instrucciones..
Microcontroladores. Unidad 1
Microcontroladores Unidad 1 1.1 Conceptos básicos Ordenador o Computadora Sistema de calculo de propósito general que incorpora una unidad central de proceso, memoria y dispositivos de entrada y salida.
Modelo de von Neumann
Conceptos básicos Modelo de von Neumann También conocida como arquitectura de Princeton. Propuesta por John von Neumann en 1945. Partes de una computadora digital: Unidad de procesamiento (CPU unidad central
Instituto Tecnológico de Morelia
Instituto Tecnológico de Morelia Arquitectura de Computadoras Unidad 1a Programa 1 Modelo de arquitecturas de cómputo. 1.1 Modelos de arquitecturas de cómputo. 1.1.1 Clásicas. 1.1.2 Segmentadas. 1.1.3
Arquitectura de Computadores II Clase #16
Arquitectura de Computadores II Clase #16 Facultad de Ingeniería Universidad de la República Instituto de Computación Curso 2010 Organización general Superescalar Varios pipelines. 2 operaciones enteras,
Tecnologías, Organización y Microarquitectura
Septiembre 2012 Tecnología de Integración Nanotecnología Tecnología de Integración Imágenes obtenidas con TEM (Transmission Electron Microscope) de una cepa del virus de la influenza, y de un transistor
Arquitectura de Computadores (obligatoria)
Arquitectura de Computadores (obligatoria) Profesores responsables: Pau Micó Tormos (teoría y prácticas) Despacho: F4D1 Créditos: 6 (4.5 Teoría + 1.5 Prácticas) Semestre: 3A Número de grupos de aula: 1
Segmentación del ciclo de instrucción v.2014
Segmentación del ciclo de instrucción v.2014 William Stallings, Organización y Arquitectura de Computadores, Capítulo 11: Estructura y función de la CPU. John Hennessy David Patterson, Arquitectura de
