Conceptos básicos de procesamiento paralelo (1)
|
|
|
- Alfonso Henríquez Rubio
- hace 8 años
- Vistas:
Transcripción
1 Conceptos básicos de procesamiento paralelo (1) Paralelismo: En un sistema computador hay paralelismo cuando, al menos, durante algunos instantes de tiempo ocurren varios eventos similares Ejecución concurrente vs. paralela: ψ Concurrente: Modelo de varios clientes y un servidor. Es secuencial pero de apariencia paralela ψ Paralela: Modelo de N clientes y N servidores (ejemplo: N procesadores y N procesos) OrCo I Paralelismo 1
2 Conceptos básicos de procesamiento paralelo (2) Granularidad ψ Indica el tamaño de las tareas en que se descomponen los programas con objeto de paralelizarlos ø Tareas pequeñas: grano de paralelismo fino ø Tareas grandes: grano de paralelismo grueso ψ Grano más fino supone: ø Inconveniente: mayores dificultades de sincronización de tareas ø Ventaja: mayor aprovechamiento del paralelismo OrCo I Paralelismo 2
3 Conceptos básicos de procesamiento paralelo (y 3) Procesos y threads (hilos, procesos ligeros) ψ Ambos consisten en la tarea de ejecutar un fragmento de programa y se crean para poder ejecutarse concurrentemente o en paralelo ψ El S.O. asigna recursos distintos a cada proceso (espacio de memoria, procesador...) para su ejecución ψ Los threads se crean dentro de un proceso y comparten los recursos del proceso ø La existencia de threads supone un grano de paralelismo más fino que la existencia de procesos sin threads OrCo I Paralelismo 3
4 Tipos y niveles de paralelismo (1) Paralelismo disponible: el que hay en las soluciones a los problemas ψ Funcional: ø Surge de la lógica de la solución de un problema (ej.: varias instrucciones de un algoritmo que pueden ejecutarse a la vez) ø Es irregular y débil (se paralelizan menos de 10 operaciones) pero aparece en toda clase de problemas ψ De datos: ø Surge de usar, en la solución a un problema, estructuras de datos que permiten operaciones paralelas en sus elementos (vectores y matrices) ø Es regular y, generalmente masivo (se paralelizan 100 ó más operaciones) OrCo I Paralelismo 4
5 Tipos y niveles de paralelismo (y 2) Paralelismo utilizado: el que se da durante la ejecución de los programas ψ Lo utilizan las arquitecturas, los compiladores y los sistemas operativos trabajando conjuntamente Niveles Paralelismo funcional disponible Nivel de instrucción (grano fino) Nivel de bucle (grano medio) Nivel de procedimiento (grano medio) Nivel de programa (grano grueso) Paralelismo funcional utilizado Nivel de instrucción (arquitecturas ILP y compiladores adecuados) Nivel de thread Nivel de proceso Nivel de usuario (los programas de diferentes usuarios se dividen en procesos) OrCo I Paralelismo 5
6 Arquitecturas para explotar el paralelismo Dos técnicas básicas ψ Pipeline (segmentación encauzada o encauzamiento) ø El hardware se divide en etapas ø El procesamiento de funciones se solapa (antes de que termine una empieza otra) ø Se suele encauzar la CPU, la ALU, la memoria... ψ Replicación ø En vez de un elemento hardware se tienen varios iguales que pueden funcionar simultáneamente ø Se pueden replicar las ALU, los bancos de memoria, las unidades de entrada/salida, los procesadores... OrCo I Paralelismo 6
7 Clasificación de Flynn de los computadores Single instruction, single data stream - SISD Single instruction, multiple data stream - SIMD Multiple instruction, single data stream - MISD Multiple instruction, multiple data stream- MIMD OrCo I Paralelismo 7
8 Single Instruction, Single Data Stream - SISD Un único procesador (C.U. + A.L.U.) Un único flujo de instrucciones entre la memoria y la unidad de control Un único flujo de datos entre la memoria y la unidad procesadora (ALU o PU) OrCo I Paralelismo 8
9 Single Instruction, Multiple Data Stream - SIMD Una única unidad de control => Single instruction stream Varios elementos de proceso (ALU) => Multiple data stream Los elementos de proceso funcionan síncronamente Cada elemento de proceso tiene su propia memoria local de datos Procesadores matriciales OrCo I Paralelismo 9
10 Organización SIMD OrCo I Paralelismo 10
11 Multiple Instruction, Single Data Stream - MISD Una única secuencia de datos es transmitida a través de una serie de elementos de proceso Cada procesador ejecuta una secuencia de instrucciones diferente sobre un mismo flujo de datos Algunos incluyen a los procesadores sistólicos en esta categoría Otros opinan que no se ha construido ninguna computadora con esta arquitectura OrCo I Paralelismo 11
12 Multiple Instruction, Multiple Data Stream- MIMD Varios procesadores Si ψ Memoria compartida entonces multiprocesadores ψ Memoria distribuida entonces multicomputadores OrCo I Paralelismo 12
13 Organización MIMD Memoria compartida OrCo I Paralelismo 13
14 Organización MIMD Memoria distribuida OrCo I Paralelismo 14
15 Clasificación de Sima, Fountain y Kacsuk [1997] Arquitecturas de paralelismo funcional ψ Arquitecturas ILP (paralelas a nivel de instrucción) ø Procesadores encauzados ø Procesadores VLIW ø Procesadores superescalares ψ Arquitecturas paralelas a nivel de thread ψ Arquitecturas paralelas a nivel de proceso (MIMD) ø MIMD de memoria distribuida o multicomputador ø MIMD de memoria compartida o multiprocesador Arquitecturas de paralelismo de datos ψ Arquitecturas vectoriales ψ Arquitecturas asociativas y neuronales ψ Arquitecturas SIMD ψ Arquitecturas sistólicas OrCo I Paralelismo 15
16 Ejemplo de UCP encauzada (pipelined) OrCo I Paralelismo 16
17 Ejecución de instrucciones en una UCP encauzada (caso ideal) OrCo I Paralelismo 17
18 Características generales del pipeline La velocidad del cauce está limitada por la de la etapa más lenta => ψ Conviene que el retardo de todas las etapas sea el mismo (T) Rendimiento ideal: ψ Cada periodo T termina la ejecución de una instrucción en el cauce ψ Si T es 1 ciclo de reloj, CPI ideal = 1 ψ Si hay N etapas la mejora en velocidad es N (=NT/T) OrCo I Paralelismo 18
19 Por qué no se consigue el rendimiento ideal? No es fácil que todas las etapas tengan el mismo retardo Hay retardos debidos a los registros que separan etapas Mientras el cauce se está llenando o vaciando hay etapas inactivas En algunas situaciones de riesgo (hazard) es preciso detener instrucciones en el cauce OrCo I Paralelismo 19
20 Hazards Colisiones: Varias instrucciones intentan acceder a un mismo recurso al mismo tiempo Dependencias de control: Cuando hay una instrucción de salto puede ser preciso esperar a que se calcule el nuevo valor del PC Dependencias de datos entre dos instrucciones I y J (I anterior a J) ψ Leer después de escribir: J lee un operando que previamente debe calcular I ψ Escribir después de leer: J escribe un resultado que I debe leer antes ψ Escribir después de escribir: I escribe un resultado que J debe escribir después OrCo I Paralelismo 20
21 Procesadores superescalares y VLIW (Very Long Instruction Word) Superescalares y VLIW... ψ Consiguen un CPI<1 ψ Poseen varias unidades de ejecución Procesadores VLIW: ψ Cada instrucción codifica varias operaciones (lo que en una máquina convencional serían varias instrucciones) ψ Las operaciones de una instrucción se ejecutarán en paralelo en las distintas unidades de ejecución ψ Precisan compiladores específicos ø Planificación estática ψ Entre 5 y 30 unidades de ejecución OrCo I Paralelismo 21
22 Procesadores superescalares y VLIW (cont.) Procesadores superescalares ψ Descodifican un número pequeño de instrucciones (entre 2 y 6) en cada ciclo de reloj ø Si pueden paralelizarse serán todas emitidas en un mismo ciclo ø La planificación de las instrucciones es responsabilidad del compilador y del hardware ψ No precisan compiladores especiales ψ Menos unidades de ejecución que en un procesador VLIW ψ Gran implantación en los procesadores comerciales OrCo I Paralelismo 22
23 Problemas con los procesadores superescalares y VLIW Cuanto mayor sea el número N de unidades de ejecución ψ Mayor dificultad para encontrar un conjunto de N operaciones entre las que no haya dependencias de datos ψ La frecuencia de saltos por cada emisión de instrucción/instrucciones es mayor ψ En definitiva, mayor dificultad para tener ocupadas todas las unidades de ejecución Se necesitan bancos de registros y memorias multipuerto para que varias operaciones puedan acceder a ellos a la vez OrCo I Paralelismo 23
24 Características básicas de los computadores MIMD Contienen varios procesadores, generalmente de similares capacidades de cómputo No hay una unidad central de control (a diferencia de lo que ocurre en un SISD o en un SIMD) Comunicación entre procesadores: ψ Mediante memoria compartida o ψ Mediante paso de mensajes El hardware es manejado por un único sistema operativo OrCo I Paralelismo 24
25 Memoria en los MIMD La distinción memoria compartida / memoria distribuida es demasiado simple. Debe considerarse ψ Espacio de direcciones compartido frente a espacios de direcciones privados ψ Memoria centralizada frente a memoria distribuida ø Centralizada: igual tiempo de acceso para todos los procesadores ø Distribuida: distintos módulos de memoria y diferentes tiempos de acceso según el procesador y el módulo de memoria considerados OrCo I Paralelismo 25
26 Memoria en los MIMD (cont) En general ψ Las máquinas con espacios de direcciones privados son de memoria distribuida (clusters) y ψ Las máquinas con memoria compartida son de memoria centralizada (UMA, uniform memory access) Sin embargo ψ La memoria compartida facilita el software ψ La memoria distribuida facilita el hardware ψ Así se justifica la existencia de arquitecturas con memoria distribuida y espacio de direcciones compartido: se denominan arquitecturas de memoria virtual compartida, de memoria distribuida compartida o NUMA (Non-uniform memory access) OrCo I Paralelismo 26
27 Ventajas e inconvenientes de los modelos de memoria Escalabilidad ψ Mayor en los MIMD de memoria distribuida ψ En los MIMD de memoria compartida el ancho de banda de la memoria limita el número de procesadores que se pueden tener sin que la memoria se convierta en el cuello de botella. Sin embargo... ø Hay suficiente paralelismo en los programas para aprovechar un número elevado de procesadores? Programación ψ Más sencilla en los multiprocesadores OrCo I Paralelismo 27
28 Multicomputadores OrCo I Paralelismo 28
29 Multicomputadores Son una colección de computadores (CPU, memoria, elementos de E/S) que se comunican: ψ A través de una red escalable, de alto rendimiento ø Muy importante la topología de la red ψ Mediante operaciones explícitas de E/S ø Send: SEND expresión TO proceso destino ø Receive: RECEIVE variable FROM proceso fuente ø Cuando un proceso emisor y uno receptor se nombran mutuamente se establece un canal lógico de comunicación entre ambos ø Send y receive resuelven la sincronización entre procesos Ejemplos: Schlumberger FAIM- 1, HPL Mayfly, NCUBE, Intel ipsc, Parsys SuperNode1000, Intel Paragon OrCo I Paralelismo 29
30 Arquitecturas UMA (multiprocesadores simétricos) Todos los procesadores comparten ψ Memoria (con similares tiempos de acceso) ψ Entrada/salida Propia de multiprocesadores de pequeña escala Ejemplos: Sun Enterprise 6000, SGI Challenge, Intel SystemPro OrCo I Paralelismo 30
31 Arquitecturas NUMA El tiempo de acceso de un procesador a memoria es diferente en diferentes zonas de memoria Propia de multiprocesadores de gran escala Muchas variantes Ejemplos: Cray T3D, KSR-1, Convex SPP1000 OrCo I Paralelismo 31
32 Comunicación y sincronización en los multiprocesadores Comunicación mediante variables compartidas => ψ Aparecen secciones críticas. Ej.: ψ LOAD Reg[1],V LOAD Reg[2],V ADD Reg[1],#1 ADD Reg[2],#2 STORE V,Reg[1] STORE V,Reg[2] Sincronización mediante instrucciones ininterrumpibles específicas. Ej.: ψ WAIT(S) WAIT(S) Sección crítica 1 Sección crítica 2 SIGNAL(S) SIGNAL(S) ψ S es una variable compartida (suponemos inicialmente S=1) ψ WAIT(S) = [If S=0 then "impedir el paso" else S S-1] ψ SIGNAL(S) = [S S+1] OrCo I Paralelismo 32
33 Cachés en multiprocesadores Ventajas ψ Reducen la competencia por memoria ψ Evita conflictos y retardos en la red de interconexión Problema: coherencia caché ψ Caso típico: ø Dos procesadores P y Q leen una variable compartida. Después P la modifica. Si Q vuelve a leerla, tomará el dato de su memoria caché y por tanto tomará un dato obsoleto ψ Tipos de protocolos para mantener la coherencia caché ø De espionaje (snooping). Propios de arquitecturas de un solo bus ø Basados en directorio. Propios de arquitecturas que soportan un número elevado de procesadores OrCo I Paralelismo 33
34 Problemas de los MIMD escalables y posibles soluciones Problemas de latencia de memoria Pérdidas de tiempo debidas a la sincronización entre procesos Posibles soluciones ψ Uso de memoria caché ψ Red de interconexión eficiente ψ Conmutación de procesos: cuando un proceso quiere acceder a un recurso ocupado, al procesador se le asigna otro proceso para evitar que esté parado ø Problema: el estado del proceso suspendido debe ser salvado y el del proceso activado debe ser cargado (cambio de contexto) ψ Utilización de threads junto a un mecanismo rápido de cambio de contexto entre threads OrCo I Paralelismo 34
35 Arquitecturas multithread Grano más fino que las multitarea (thread más pequeño que proceso) => ψ Más importante la velocidad en el cambio de contexto ψ Necesidad de mecanismo hardware para ese cambio Eficiencia procesador = busy /(busy+switching+idle) ψ Busy, switching, idle: cantidad de tiempo, medida sobre un largo intervalo, que el procesador está haciendo trabajo útil, cambiando de contexto y parado, respectivamente ψ Objetivo multithread: reducir idle sin que switching sufra un aumento sustancial (en todo caso es exigible que switching < idle) OrCo I Paralelismo 35
36 Arquitecturas multithread (cont) Principales decisiones de diseño: ψ Modelo von Neumann / modelo híbrido (von Neumannflujo de datos) ψ Granularidad fina/gruesa ψ Número de threads pequeño (4-10) / mediano (10-100) / grande (más de 100) ψ Memoria centralizada compartida / distribuida compartida OrCo I Paralelismo 36
37 Comparación de máquinas multithread Máquina Modelo computacional Granularidad Organización de memoria Threads por procesador Año de aparición Denelcor HEP Von Neumann Fina Centralizada compartida Hasta Tera Von Neumann Fina Distribuida compartida Hasta MIT Alewife Von Neumann Gruesa Distribuida compartida Hasta EM-4 Híbrida-flujo de datos Gruesa Distribuida compartida Ilimitado 1990 *T Híbrida-Von Neumann Fina Distribuida compartida Ilimitado 1992 OrCo I Paralelismo 37
38 Arquitectura SIMD OrCo I Paralelismo 38
39 Arquitectura SIMD (2) N elementos de proceso iguales ψ Elemento de proceso: ALU + memoria local (para los datos distribuidos, los de las instrucciones vectoriales) Una única unidad de control (realmente una CPU) controla los elementos de proceso La red de interconexión permite comunicar unos elementos de proceso con otros La unidad de control busca las instrucciones en memoria principal y las descodifica. Si la instrucción buscada es ψ Escalar o de bifurcación: se ejecuta en la propia unidad de control ψ Vectorial: la unidad de control la transmite a los elementos de proceso, los cuales actúan simultáneamente ø Un esquema de enmascaramiento permite habilitar un subconjunto de los elementos de proceso e inhabilitar el resto OrCo I Paralelismo 39
40 Arquitectura SIMD (3) Demasiado inflexible ψ No se adecua a un número importante de problemas Buenos como procesadores de propósito especial para muchas de las tareas con un alto grado de paralelismo (procesamiento de imagen y de señal) Alternativas básicas de diseño: ψ Pocos procesadores complejos: MPP, CM1, Mas Par1 ψ Muchos elementos de proceso sencillos: CM5 OrCo I Paralelismo 40
41 Arquitectura vectorial OrCo I Paralelismo 41
42 Arquitectura vectorial (2) Instrucciones máquina vectoriales y escalares Varias unidades funcionales especializadas encauzadas Bancos de registros rápidos: vectorial y escalar Vector load-store: unidad encauzada que carga/ almacena vectores desde/en memoria Memoria entrelazada (ancho de banda grande) OrCo I Paralelismo 42
43 Arquitectura vectorial (3) Cray-1 (año 1976): durante considerable tiempo fue el supercomputador más rápido Otros: Cray Y-MP (1988), Convex C-1 (1985), NEC SX/2 (1984) Año 1996: con microprocesadores superescalares se obtienen mejores rendimientos que con las máquinas vectoriales OrCo I Paralelismo 43
44 Evolución de las arquitecturas paralelas: introducción Fuertes interacciones entre la arquitectura, la tecnología y las aplicaciones (evolucionan conjuntamente) El cambio es la norma en arquitectura de computadores Un gran cambio a finales de la década de 1990: ψ Todo el espectro de computadores paralelos usa como componente básico el micropocesador. Ventajas: ø Bajo coste (producción a gran escala), alto rendimiento (durante muchos años viene mejorando en torno a un 50% al año) OrCo I Paralelismo 44
45 Evolución de las aplicaciones Aplicaciones propias de las arquitecturas paralelas ψ Científicas: física, química, biología... ψ De ingeniería: industria aeronáutica, electrónica, química, farmacéutica... ψ Comerciales, fundamentalmente bases de datos ψ Ocio: realidad virtual, películas de animación... Los progresos en los conocimientos respectivos aumentan las demandas de rendimiento Los aumentos en el rendimiento de los computadores aumentan la cantidad de aplicaciones que se utilizan en ellos OrCo I Paralelismo 45
46 Evolución de la tecnología La densidad de los circuitos integrados crece aproximadamente un 50% al año El tamaño del dado crece entre un 10 y un 25% al año Por tanto en un solo chip pueden integrarse muchos más componentes. Algunas posibilidades: ψ Integrar en el chip más memoria y soporte de E/S, además de la UCP: solución utilizada en sistemas empotrados, portables, computadores económicos ψ Colocar varios procesadores en el chip: solución utilizada para procesamiento de la señal digital Rendimiento de los procesadores crece más deprisa que el de la memoria y el de los discos => ψ Necesidad de varios niveles de caché (para reducir la latencia) ψ Replicar módulos de memoria y discos (aumenta ancho de banda) OrCo I Paralelismo 46
47 Evolución de las arquitecturas de los microprocesadores Hasta mediados década de 1980: aumento del paralelismo a nivel de bit (mediante el aumento del ancho de palabra) Desde mediados de los 80: avances en el paralelismo a nivel de instrucción: ψ Microprocesadores encauzados ψ Microprocesadores superescalares cada vez con más paralelismo (dado que cada vez puede integrarse más hardware en un solo chip) pero... ø Un paralelismo superescalar mayor que 4 incrementa poco el rendimiento Cabe esperar que los siguientes esfuerzos se dediquen a conseguir un buen paralelismo a nivel de threads OrCo I Paralelismo 47
48 Evolución de los sistemas computadores Desde mediados de la década de 1980 se generalizan los computadores basados en varios microprocesadores comerciales compartiendo una memoria común ψ Desde entonces los microprocesadores comerciales tienen el hardware necesario para poder formar parte de un multiprocesador Principio de los 90: grandes avances en el rendimiento del bus de memoria compartida debido a: bus múltiple, transmisión más rápida de señales, rutas de datos más anchas, protocolos de comunicación encauzados ψ Estos avances eran muy necesarios porque al mejorar el rendimiento de los microprocesadores el bus se satura con menos procesadores OrCo I Paralelismo 48
49 Evolución de los sistemas computadores (cont) Cada vez mayor expansión de los MIMD de memoria compartida basados en bus ψ Computadores de sobremesa y pequeños servidores soportan entre dos y cuatro procesadores ψ Servidores grandes soportan decenas de procesadores ψ Sistemas comerciales grandes, se acercan a cien La tendencia anterior conduce a utilizar chips con varios procesadores Number of processors Sequent B2100 Sequent B8000 Symmetry81 Symmetry21 Power SGI Challenge CRAY CS6400 Sun E10000 SE60 Sun E6000 SE70 Sun SC2000 SC2000E SGI PowerChallenge/XL AS8400 SE10 SE30 SS1000 SS1000E SS690MP 140 AS2100 HP K400 P-Pro SGI PowerSeries SS690MP 120 SS10 SS OrCo I Paralelismo 49
50 Evolución de los supercomputadores La fórmula 1 de los computadores Tradicionalmente dominada por los computadores vectoriales Hoy día dominada por sistemas basados en microprocesadores (v. fig.) OrCo I Paralelismo 50
51 Convergencia de las arquitecturas paralelas La evolución del hardware y del software ha conducido a una convergencia de las máquinas paralelas hacia una estructura común: ψ Varios nodos que se comunican mediante una red escalable de propósito general y alto rendimiento ψ Cada nodo incluye ø Uno o más procesadores (integran caché [$]) ø Memoria ø Un controlador para las operaciones a través de la red (CA) Desde esta perspectiva, la cuestión básica del diseño es ψ Qué funcionalidad debe tener el CA (comunication assist) ψ Cómo debe ser la interfaz entre el CA y el/los procesadores, el sistema de memoria y la red [caja negra en la fig. sgte.] OrCo I Paralelismo 51
52 Organización genérica de un MIMD escalable Network Mem Communication assist (CA) $ P OrCo I Paralelismo 52
53 Bibliografía Sima, D., T. Fountain and P. Kacsuk (1997): Advanced Computer Architectures, A Design Space Approach. Addison-Wesley. Culler, D. E. and J. P. Singh (1999): Parallel Computer Architecture, A Software/Hardware Approach. Morgan Kauffman. San Francisco. Patterson D. A. and J. L. Hennessy (1995): Organización y diseño de computadores, La interfaz hardware/software. McGraw-Hill. Madrid. OrCo I Paralelismo 53
Objetivos. Objetivos. Arquitectura de Computadores. R.Mitnik
Objetivos Objetivos Arquitecturas von Neumann Otras Unidad Central de Procesamiento (CPU) Responsabilidades Requisitos Partes de una CPU ALU Control & Decode Registros Electrónica y buses 2 Índice Capítulo
Diseño arquitectónico 1ª edición (2002)
Unidades temáticas de Ingeniería del Software Diseño arquitectónico 1ª edición (2002) Facultad de Informática objetivo Los sistemas grandes se descomponen en subsistemas que suministran un conjunto relacionado
SISTEMAS DE MULTIPROCESAMIENTO
SISTEMAS DE MULTIPROCESAMIENTO Tema 1 Introducción 5º Curso de Automática y Electrónica Industrial. 1 Contenido Tema 1 Aplicaciones Incremento de las prestaciones Clasificación de los ordenadores en función
EVOLUCIÓN DE LOS PROCESADORES
EVOLUCIÓN DE LOS PROCESADORES Lecturas recomendadas: * Tanembaum, A. Organización de computadoras. Cap. 1 * Stallings, W. Organización y arquitectura de computadores. Cap. 2 Arquitectura de una computadora
Introducción a la arquitectura de computadores
Introducción a la arquitectura de computadores Departamento de Arquitectura de Computadores Arquitectura de computadores Se refiere a los atributos visibles por el programador que trabaja en lenguaje máquina
Sistema electrónico digital (binario) que procesa datos siguiendo unas instrucciones almacenadas en su memoria
1.2. Jerarquía de niveles de un computador Qué es un computador? Sistema electrónico digital (binario) que procesa datos siguiendo unas instrucciones almacenadas en su memoria Es un sistema tan complejo
Unidad II Arquitectura de Computadoras
Unidad II Arquitectura de Computadoras Arquitectura de Computadoras -LATIC Contenido Qué es una computadora? Tipos de computadoras Evolución de las computadoras El modelo de Von Neumann La unidad central
Tema 1: Arquitectura de ordenadores, hardware y software
Fundamentos de Informática Tema 1: Arquitectura de ordenadores, hardware y software 2010-11 Índice 1. Informática 2. Modelo de von Neumann 3. Sistemas operativos 2 1. Informática INFORMación automática
Threads, SMP y Microkernels. Proceso
Threads, SMP y Microkernels Proceso Propiedad de los recursos a un proceso se le asigna un espacio de dirección virtual para guardar su imagen Calendarización/ejecución sigue una ruta de ejecución la cual
Arquitecturas vectoriales, SIMD y extensiones multimedia
Arquitecturas vectoriales, SIMD y extensiones multimedia William Stallings, Organización y Arquitectura de Computadores, 5ta. ed., Capítulo 16: Procesamiento Paralelo. Andrew S. Tanenbaum, Organización
Tema: Microprocesadores
Universidad Nacional de Ingeniería Arquitectura de Maquinas I Unidad I: Introducción a los Microprocesadores y Microcontroladores. Tema: Microprocesadores Arq. de Computadora I Ing. Carlos Ortega H. 1
TEMA II: ALMACENAMIENTO DE LA INFORMACIÓN
CUESTIONES A TRATAR: Existe un tipo único tipo de memoria en un determinado computador? Todas las memorias de un computador tienen la misma función?. Qué es la memoria interna de un computador? Por qué
Herramientas Informáticas I Software: Sistemas Operativos
Herramientas Informáticas I Software: Sistemas Operativos Facultad de Ciencias Económicas y Jurídicas Universidad Nacional de La Pampa Sistemas Operativos. Es el software base que permite trabajar como
FUNCIONAMIENTO DEL ORDENADOR
FUNCIONAMIENTO DEL ORDENADOR COMPUTACIÓN E INFORMÁTICA Datos de entrada Dispositivos de Entrada ORDENADOR PROGRAMA Datos de salida Dispositivos de Salida LOS ORDENADORES FUNCIONAN CON PROGRAMAS Los ordenadores
Lusitania. Pensando en Paralelo. César Gómez Martín
Lusitania Pensando en Paralelo César Gómez Martín [email protected] www.cenits.es Esquema Introducción a la programación paralela Por qué paralelizar? Tipos de computadoras paralelas Paradigmas de
Area Académica: Sistemas Computacionales. Tema: Elementos de diseño de memoria caché
Area Académica: Sistemas Computacionales Tema: Elementos de diseño de memoria caché Profesor: Raúl Hernández Palacios Periodo: 2011 Keywords: Memory, cache memory. Tema: Elementos de diseño de memoria
Introducción a los Sistemas Operativos
Introducción a los Sistemas Operativos Pedro Corcuera Dpto. Matemática Aplicada y Ciencias de la Computación Universidad de Cantabria [email protected] 1 Índice General Conceptos sobre ordenadores Concepto
ARQUITECTURA E INGENIERÍA DE COMPUTADORES
III III Jornadas: Docencia de de ISA ISA en en Informática y Computadores ARQUITECTURA E INGENIERÍA DE COMPUTADORES José José Sánchez Moreno Dpto. Dpto. Informática y Automática E.T.S.I. Informática UNED
Memorias RAM. Basilio B. Fraguela Rodríguez. Copyright Basilio B. Fraguela 2006
Memorias RAM Basilio B. Fraguela Rodríguez Evolución de la velocidad del procesador y la memoria 1000 Ley de Moore CPU µproc 60%/año 100 10 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 DRAM 1990
Plataformas paralelas
Plataformas paralelas Curso 2011-2012 Elementos de un computador paralelo Hardware: Múltiples procesadores Múltiples memorias Redes de interconexión Software: Sistemas Operativos paralelos Programas orientados
Instituto Tecnológico de Morelia
Instituto Tecnológico de Morelia Arquitectura de Computadoras Unidad 1a Programa 1 Modelo de arquitecturas de cómputo. 1.1 Modelos de arquitecturas de cómputo. 1.1.1 Clásicas. 1.1.2 Segmentadas. 1.1.3
Introducción. Universidad Nacional Tecnológica del Cono Sur de Lima JORGE AUGUSTO MARTEL TORRES 1
Universidad Nacional Tecnológica del Cono Sur de Lima Especialidad Ingeniería Mecánica Ingeniería Electrónica Introducción PROGRAMACIÓN DE INGENIERÍA Semana 01-A: Introducción Arquitectura Ing. Jorge A.
ESTRUCTURA BÁSICA DE UN ORDENADOR
ESTRUCTURA BÁSICA DE UN ORDENADOR QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... QUÉ ES UN ORDENADOR? Un ordenador es una máquina... Qué son los
15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores.
UNIDAD TEMÁTICA 5: MULTIPROCESADORES. 15. Arquitectura de los multiprocesadores. 16. Multiprocesadores de memoria compartida. 17. Multicomputadores. 15-1 TEMA 15: ARQUITECTURA DE LOS MULTIPROCESADORES.
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial
Intel lanza su procesador Caballero Medieval habilitado para Inteligencia Artificial Intel ha lanzado su procesador Xeon Phi en la Conferencia Internacional de Supercomputación de Alemania. El procesador
MULTIPROCESADORES (MIMD)
CAPITULO 6 MULTIPROCESADORES (MIMD) 6.1 - Generalidades de Multiprocesadores. Pueden clasificarse en esta categoría muchos sistemas multiprocesadores y sistemas multicomputadores. Un multiprocesador se
ARQUITECTURA DE COMPUTADORAS
ARQUITECTURA DE COMPUTADORAS Información General Objetivos Al terminar el curso, el estudiante estará capacitado para: 1. Manejar medidas de performance que permitan comparar diversos sistemas de Computadora.
OBJETIVOS DE LA MATERIA... 4 PROGRAMA ANALÍTICO. CONTENIDOS TEÓRICOS Y PRÁCTICOS... 5 BIBLIOGRAFIA... 7
UNIVERSIDAD NACIONAL DE LA MATANZA DEPARTAMENTO DE INGENIERIA E INVESTIGACIONES TECNOLOGICAS INGENIERIA EN INFORMATICA ARQUITECTURA DE COMPUTADORAS (1109) Profesor Titular: Ing. Fernando I. Szklanny PLANIFICACIÓN
Procesadores superescalares. Introducción
Procesadores superescalares Introducción Introducción El término superescalar (superscalar) fue acuñado a fines de los 80s. Todas las CPUs modernas son superescalares. Es un desarrollo de la arquitectura
MINUTA: Taller en UAEMEX, Toluca. Construcción de Tecnología HPC
MINUTA: Taller en UAEMEX, Toluca Construcción de Tecnología HPC de MESA: Taller DE construcción de Tacnología HPC Sesión: # 1 a la 5 INFORMACIÓN GENERAL FECHA: 213 al 17 de julio 2015 Construcción de Tecnología
Tema 5: Memorias. Espacio reservado para notas del alumno
Tema 5: Memorias S Definiciones S Parámetros característicos S Jerarquía de memoria S Dispositivos de almacenamiento S Clasificación S Fundamentos de las memorias S Memoria caché / Memoria virtual S Memoria
CPU MEMORIAS CACHE. Memorias caché. Memoria caché = memoria de tamaño pequeño y acceso rápido situada entre la CPU y la memoria principal.
MEMORIAS CACHE Memoria caché = memoria de tamaño pequeño y acceso rápido situada entre la CPU y la memoria principal. Tiempo ciclo memoria > tiempo de ciclo del procesador la CPU debe esperar a la memoria
Arquitectura de Computadoras. Anexo Clase 8 Buses del Sistema
Arquitectura de Computadoras Anexo Clase 8 Buses del Sistema Estructuras de interconexión Todas las unidades han de estar interconectadas. Existen distintos tipos de interconexiones para los distintos
Introducción a los Sistemas Operativos
Introducción a los Sistemas Operativos (primera parte) USB Agosto 2012 Introduccion Un ordenador moderno consiste de uno o más procesadores, alguna memoria principal, discos, impresoras, un teclado, una
UNIDAD 1. COMPONENTES DEL COMPUTADOR
UNIDAD 1. COMPONENTES DEL COMPUTADOR OBJETIVO Nº 1.1: DEFINICIÓN DE COMPUTADOR: Es un dispositivo electrónico compuesto básicamente de un procesador, una memoria y los dispositivos de entrada/salida (E/S).
INTRODUCCIÓN. Que es un sistema operativo? - Es un programa. - Funciona como intermediario entre el usuario y los programas y el hardware
INTRODUCCIÓN Que es un sistema operativo? - Es un programa. - Funciona como intermediario entre el usuario y los programas y el hardware INTRODUCCIÓN METAS: Brindar un entorno para que los usuarios puedan
0-31 : caracteres de control : carac. Comunes : especiales (flechas, símbolos) y particulares (ñ)
Hardware y Software (1/6) Lenguaje binario Los ordenadores sólo entienden 1 y 0. Lógica positiva: 0: no hay señal 1: hay señal Código ASCII American Standard Code for Information Interchange Carácter =
Electrónica Digital II
Electrónica Digital II TIPOS DE MEMORIAS MEMORIA DDR MEMORIA DDR2 MEMORIA DDR3 COMPARACIÓN TIEMPOS DE ACCESO TIPOS DE LATENCIAS RAS CAS ACTIVIDAD PRECARGA TIPOS DE CONFIGURACIONES SINGLE CHANNEL DUAL CHANNEL
ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla
ARQUITECTURA BÁSICA DEL ORDENADOR: Hardware y Software. IES Miguel de Cervantes de Sevilla Índice de contenido 1.- Qué es un ordenador?...3 2.-Hardware básico de un ordenador:...3 3.-Software...4 3.1.-Software
UNIVERSIDAD DE GUADALAJARA
UNIVERSIDAD DE GUADALAJARA CENTRO UNIVERSITARIO DE LOS ALTOS DIVISIÓN DE ESTUDIOS EN FORMACIONES SOCIALES LICENCIATURA: INGENIERÍA EN COMPUTACIÓN UNIDAD DE APRENDIZAJE POR OBJETIVOS ORGANIZACIÓN DE COMPUTADORAS
MEMORIA RAM. Clase 4
MEMORIA RAM Clase 4 RAM Tipo de memoria que utilizan las computadoras para almacenar los datos y programas a los que necesita tener un acceso rápido. Es volátil, es decir, que se borra cuando apagamos
El Modelo. Aplicación. Presentación. Sesión. Transporte. Red. Enlace. Físico
El Modelo Es una arquitectura por niveles para el diseño de sistemas de red que permiten la comunicación entre todos los dispositivos de computadoras. Esta compuesto por siete niveles separados, pero relacionados,
Arquitectura de Computadores
Arquitectura de Computadores 1. Introducción 2. La CPU 3. Lenguaje Máquina 4. La Memoria 5. Sistemas de Entrada/Salida 6. CPU Segmentada (Pipeline) 7. Memoria Caché 8. Arquitecturas RISC Arquitectura de
Organización del Computador 1. Máquina de von Neumann Jerarquía de Niveles
Organización del Computador 1 Máquina de von Neumann Jerarquía de Niveles Inicios de la computación Turing y Church sientan las bases teóricas de la computación Máquina de Turing Máquina teórica compuesta
TEMA 1: Concepto de ordenador
TEMA 1: Concepto de ordenador 1.1 Introducción Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es completamente inútil. Para escribir estos programas necesitamos
ARQUITECTURA DE COMPUTADORES I
ARQUITECTURA DE COMPUTADORES I Tema 5: Procesadores Vectoriales Lección 18: Características Generales de los Procesadores Vectoriales Curso 2011/2012 Bibliografía 1. J. L. HENNESSY and D. A. PATTERSON.
1. Introducción a la Arquitectura de Computadoras
1. Introducción a la Arquitectura de Computadoras M. Farias-Elinos Contenido Definiciones Estructura de una computadora Evolución de las computadoras Generaciones de computadoras Evolución de la família
Hub, switch y Routers son nombres dados a dispositivos de hardware que posibilitan la conexión de computadores a redes.
DISPOSITIVOS DE INTERCONEXION DE REDES DE DATOS Hub, switch y Routers son nombres dados a dispositivos de hardware que posibilitan la conexión de computadores a redes. HUB SWITCH ROUTER No inteligente
1. Almacenamiento redundante
ALTA DISPONIBILIDAD Los sistemas RAID los hacemos con un conjunto de discos. Por un lado hay RAID que valen para: *VELOCIDAD. Optimizan el rendimiento para conseguir velocidad. *SEGURIDAD. Si falla un
FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II
FUNDAMENTOS DE COMPUTACION INVESTIGACION PROCESADORES DIANA CARRIÓN DEL VALLE DOCENTE: JOHANNA NAVARRO ESPINOSA TRIMESTRE II 2013 Características principales de la arquitectura del procesador AMD Phenom
Qué es un Microcontrolador?
Qué es un Microcontrolador? Es un circuito integrado programable que contiene todos los componentes de un computadora, aunque de limitadas prestaciones y se destina a gobernar una sola tarea. Cómo se compone
Unidad I Fundamentos de Sistemas Distribuidos. M.C. Juan Carlos Olivares Rojas
Unidad I Fundamentos de Sistemas Distribuidos M.C. Juan Carlos Olivares Rojas Temario 1.1. Características de un sistema distribuido 1.2. Objetivos de los sistemas distribuidos 1.3. Ventajas y desventajas
ENIAC, Primer computador electrónico y su panel de conexiones
-1 La arquitectura de Von Neumann. Los primeros computadores se programaban en realidad recableándolos. Esto prácticamente equivalía a reconstruir todo el computador cuando se requería de un nuevo programa.
SISTEMAS OPERATIVOS Arquitectura de computadores
SISTEMAS OPERATIVOS Arquitectura de computadores Erwin Meza Vega [email protected] Esta presentación tiene por objetivo mostrar los conceptos generales de la arquitectura de los computadores, necesarios
Arquitectura Segmentada: Conceptos básicosb
Arquitectura Segmentada: Conceptos básicosb Diseño de Sistemas Digitales EL-3310 I SEMESTRE 2008 4 ARQUITECTURA SEGMENTADA (PIPELINING) (4 SEMANAS) 4.1 Conceptos básicos de la arquitectura segmentada Paralelismo
Tema 2 Introducción a la Programación en C.
Tema 2 Introducción a la Programación en C. Contenidos 1. Conceptos Básicos 1.1 Definiciones. 1.2 El Proceso de Desarrollo de Software. 2. Lenguajes de Programación. 2.1 Definición y Tipos de Lenguajes
Organización lógica Identificación de bloque
Cómo se encuentra un bloque si está en el nivel superior? La dirección se descompone en varios campos: Etiqueta (tag): se utiliza para comparar la dirección requerida por la CPU con aquellos bloques que
EMISION MULTIPLE DE INSTRUCCIONES ARQUITECTURA AVANZADA. Uciel Cohen
EMISION MULTIPLE DE INSTRUCCIONES Uciel Cohen Tabla de contenido PROCESADORES VECTORIALES... 2 PROCESAMIENTO VECTORIAL... 2 TIEMPOS DE EJECUCION VECTORIAL... 3 TIEMPO DE ARRANQUE VECTORIAL Y TASA DE INICIALIZACIÓN...
La memoria del ordenador
La memoria del ordenador Alberto Molina Coballes David Sánchez López Fundamentos de Hardware Diciembre 2011 La memoria Desde el punto de vista informático, memoria es todo dispositivo que es capaz de:
Memoria Cache. Departamento de Arquitectura de Computadores
Memoria Cache Departamento de Arquitectura de Computadores Índice Introducción. Conceptos básicos Características de los sistemas de memoria Jerarquías de memoria Memoria Principal Características físicas
TIPOS DE PROCESAMIENTOS
TIPOS DE PROCESAMIENTOS El desempeño de un computador puede tener diferentes medidas de elección para diferentes usuarios. Para un usuario individual que está ejecutando un único programa, la computadora
Generación 1. Características. Estaban construidos con electrónica de válvulas. Se programaban en lenguaje de máquina.
Generación 1 La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era base de bulbos, o tubos de vació, y la comunicación era en términos
FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS. CNCA Abril 2013
FUNDAMENTOS DE COMPUTACIÓN PARA CIENTÍFICOS CNCA Abril 2013 6. COMPUTACIÓN DE ALTO RENDIMIENTO Ricardo Román DEFINICIÓN High Performance Computing - Computación de Alto Rendimiento Técnicas, investigación
Tema 1: Introducción a los Sistemas Empotrados
[] : Introducción a los Sistemas Empotrados Antonio Carlos Domínguez Brito [2] Introducción Qué es un Sistema Empotrado? Es un sistema cuya principal función no es computacional,
ESTRUCTURA Y TECNOLOGÍA A DE COMPUTADORES
Universidad Rey Juan Carlos ESTRUCTURA Y TECNOLOGÍA A DE COMPUTADORES Estructura de un computador: conceptos básicos Luis Rincón Córcoles Licesio J. Rodríguez-Aragón Programa 1. Introducción 2. Elementos
(1) Unidad 1. Sistemas Digitales Basados en Microprocesador SISTEMAS BASADOS EN MICROPROCESADORES. Grado en Ingeniería Informática EPS - UAM
Unidad 1 Sistemas Digitales Basados en Microprocesador SISTEMAS BASADOS EN MICROPROCESADORES Grado en Ingeniería Informática EPS - UAM Índice 1. Sistemas digitales basados en microprocesador. 1.1. Arquitectura
:Arquitecturas Paralela basada en clusters.
Computación de altas prestaciones: Arquitecturas basadas en clusters Sesión n 1 :Arquitecturas Paralela basada en clusters. Jose Luis Bosque 1 Introducción Computación de altas prestaciones: resolver problemas
1. Computadores y programación
1. Computadores y programación Informática y computadora (RAE) Informática (Ciencia de la computación) Conjunto de conocimientos científicos y técnicos que hacen posible el tratamiento automático de la
EVOLUCION PROCESADORES AMD (ADVANCED MICRO DEVICES)
EVOLUCION PROCESADORES AMD (ADVANCED MICRO DEVICES) AMD AM286 Es la copia del intel 80286, creado con permiso de intel. Por petición de IBM como segunda fuente, tienen arquitectura interna de 16 bits,
Funcionamiento de la computadora
Funcionamiento de la computadora La computadora es una maquina destinada a procesar datos. Este procesamiento involucra dos flujos de información: el de datos y el de instrucciones. Se parte del flujo
Estructura del Computador
Estructura del Computador 1 definiciones preliminares Estructura: es la forma en que los componentes están interrelacionados Función: la operación de cada componente individual como parte de la estructura.
Sistemas Distribuidos. Soporte de Sistemas Operativos
Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Soporte de Sistemas Operativos Tareas principales de un SO: Administrar recursos Proveer abstracciones de los
Javier Pérez Mato µp para Comunicaciones Curso 2008/09 ETSIT - ULPGC
Javier Pérez Mato µp para Comunicaciones Curso 2008/09 ETSIT - ULPGC INTRODUCCIÓN HPC: High Performance Computer System Qué es un supercomputador? Computador diseñado para ofrecer la mayor capacidad de
Paralelismo en monoprocesadores. Procesadores VLIW
Paralelismo en morocesadores Procesadores VLIW Profesor: Mag. Marcelo Tosini Cátedra: Arquitectura de Computadoras y técnicas Digitales Carrera: Ingeniería de Sistemas Ciclo: 4º año Arquitectura VLIW básica
GRADO EN INGENIERÍA INFORMÁTICA
Facultad de Informática Universidad Complutense de Madrid GRADO EN INGENIERÍA INFORMÁTICA El Grado en Ingeniería Informática incluye dos itinerarios. Itinerario de computación Itinerario de tecnología
Estructura y Tecnología de Computadores (ITIG) Luis Rincón Córcoles Ángel Serrano Sánchez de León
Estructura y Tecnología de Computadores (ITIG) Luis Rincón Córcoles Ángel Serrano Sánchez de León Programa. Introducción. 2. Elementos de almacenamiento. 3. Elementos de proceso. 4. Elementos de interconexión.
Modelo de aplicaciones CUDA
Modelo de aplicaciones CUDA Utilización de GPGPUs: las placas gráficas se utilizan en el contexto de una CPU: host (CPU) + uno o varios device o GPUs Procesadores masivamente paralelos equipados con muchas
Sistemas de Computadoras Índice
Sistemas de Computadoras Índice Concepto de Computadora Estructura de la Computadora Funcionamiento de la Computadora Historia de las Computadoras Montando una Computadora Computadora Un sistema de cómputo
CARRERA DE INGENIERÍA CIVIL EN INFORMÁTICA COMPETENCIAS ESPECÍFICAS Y SUS NIVELES DE DOMINIO
CARRERA DE INGENIERÍA CIVIL EN INFORMÁTICA COMPETENCIAS ESPECÍFICAS Y SUS NIVELES DE DOMINIO Responsables Prof. Oriel Herrera Gamboa Prof. Marcela Schindler Nualart Prof. Gustavo Donoso Montoya Prof. Alejandro
Consumo de Potencia en CMOS
Consumo de Potencia en CMOS Lección 04.3 Ing. Jorge Castro-Godínez Escuela de Ingeniería Electrónica Instituto Tecnológico de Costa Rica II Semestre 2013 Jorge Castro-Godínez Consumo de Potencia en CMOS
AUTOMATIZACION. Reconocer la arquitectura y características de un PLC Diferenciar los tipos de entradas y salidas MARCO TEORICO. Estructura Interna
AUTOMATIZACION GUIA DE TRABAJO 3 DOCENTE: VICTOR HUGO BERNAL UNIDAD No. 3 OBJETIVO GENERAL Realizar una introducción a los controladores lógicos programables OBJETIVOS ESPECIFICOS: Reconocer la arquitectura
1.4.1 Inicio de la computadora por primera vez Hay problemas Causas, síntomas y soluciones a posibles averías...
Índice INTRODUCCIÓN...11 CAPÍTULO 1. EXPLOTACIÓN DE SISTEMAS MICROINFORMÁTICOS...13 1.1 La arquitectura de los ordenadores...14 1.1.1 La máquina de Turing...14 1.1.2 La arquitectura Harvard...15 1.1.3
Taller de Sistemas Operativos. Direccionamiento de Memoria 2012
Taller de Sistemas Operativos Direccionamiento de Memoria 2012 TSO Direccionamiento de Memoria - 2010 Agenda Arquitectura de memoria en x86 (IA-32). Direccionamiento en Linux. Arquitectura de memoria en
Unidad de Memoria. Almacenamiento de información Operaciones básicas. Propiedades de la Memoria. Escritura o almacenamiento. Lectura.
Unidad de Memoria Almacenamiento de información Operaciones básicas Escritura o almacenamiento Información Dirección Lectura Dirección Información 1K=1024 2 10 1M=1024K=2 20 1G=1024M=2 30 Propiedades de
El nivel ISA (II)! Conjunto de Instrucciones
El nivel ISA (II) Conjunto de Instrucciones EC-2721 Arquitectura del Computador I Que es un Conjunto de Instrucciones? Colección completa de instrucciones comprendida por un procesador Lenguaje de máquina
Apuntes de arquitectura de computadoras. Unidad 1 Modelo de arquitecturas de cómputo. 1.1 Modelos de arquitecturas de cómputo.
Apuntes de arquitectura de computadoras Unidad 1 Modelo de arquitecturas de cómputo. 1.1 Modelos de arquitecturas de cómputo. 1.1.1 Arquitecturas Clásicas. Estas arquitecturas se desarrollaron en las primeras
SWITCHE. SILVIO RADA RODRÍGUEZ Ingeniero de Sistemas
SWITCHE SILVIO RADA RODRÍGUEZ Ingeniero de Sistemas DISPOSITIVOS DE INTERCONEXION DE REDES DE DATOS Hub, switch y Routers son nombres dados a dispositivos de hardware que posibilitan la conexión de computadores
PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO. DE GALLETA: se utilizaban en las board en los años 80 y 90.
PROCESADORES TIPOS DE PROCESADORES. Existen 3 tipos de procesadores: DE GALLETA, DE PINES Y DE CONTACTO DE GALLETA: se utilizaban en las board en los años 80 y 90. DE PINES: reemplazaron los procesadores
Tema 1: Introducción a Estructura de Computadores. Conceptos básicos y visión histórica
Tema 1: Introducción a Estructura de Computadores Conceptos básicos y visión histórica Programa de Teoría 1. Introducción. 2. Lenguaje Máquina. 3. Lenguaje Ensamblador. 4. Ruta de Datos y Unidad de Control.
Redes (IS20) Ingeniería Técnica en Informática de Sistemas. CAPÍTULO 5: Subcapa de acceso al medio
Redes (IS20) Ingeniería Técnica en Informática de Sistemas http://www.icc.uji.es CAPÍTULO 5: Subcapa de acceso al medio ÍNDICE Curso 2002-2003 - Redes (IS20) -Capítulo 5 1 Tipos de redes: de difusión y
LABORATORIO DE ARQUITECTURA DE COMPUTADORES. I. T. I. SISTEMAS / GESTIÓN GUÍA DEL ALUMNO
LABORATORIO DE ARQUITECTURA DE COMPUTADORES. I. T. I. SISTEMAS / GESTIÓN GUÍA DEL ALUMNO Práctica 3: Memorias Objetivos Comprender qué es y cómo funciona un banco de registros Comprender cómo se realiza
Tutoría 2. Banco de memoria de 8 y 16 bits (8086)
Tutoría 2. Banco de memoria de 8 y 16 bits (8086) RESUMEN Cuando el procesador opera en modo mínimo, éste genera las señales de control para la memoria y los dispositivos de E/S. [1, pág. 292]. Para utilizar
Programación concurrente
Programación concurrente Master de Computación I Conceptos y recursos para la programación concurrente: I.1 Motivación de la programación concurrente. J.M. Drake M. Aldea Motivación de la programación
Organización del Computador 1 Memoria Cache
Organización del Computador 1 Memoria Cache Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 2011 Memorias: Evolución Memoria cache Pioneros: Maurice Wilkes
GRADO EN INGENIERÍA DE TECNOLOGÍAS DE TELECOMUNICACIÓN Primer curso Segundo curso Tercer curso Cuarto curso 1-C 2-C 1-C 2-C 1-C 2-C 1-C 2-C
GRADO EN INGENIERÍA DE S DE TELECOMUNICACIÓN 1 3 Diseño con Subsistemas Analógicos Diseño Microelectrónico Optativa 2 4 l Procesado Digital de la Señal Diseño con Empotrados Ampliación de Redes de Transporte
Ing. Carlos Bacalla
ARQ. DE COMPUTADORAS Arquitectura de Computadoras Villalobos Universidad Peruana Union Filial Tarapoto Semana 03 Operaciones del Procesador Inicios de la computación Turing y Church sientan las bases teóricas
TIPOS BÁSICOS DE ARQUITECTURAS DE MICROPROCESADORES
ANÁLISIS DE ARQUITECTURAS MODERNAS DE MICROPROCESADORES UTILIZADOS EN CIRCUITOS INTEGRADOS (CISC, RISC, VLIW, EPIC), ASÍ COMO ARQUITECTURAS PARA EL PROCESAMIENTO MULTIMEDIA Y DIGITAL DE SEÑALES DSP La
