MÓDULO # 1: Introducción al ensamble de computadores

Tamaño: px
Comenzar la demostración a partir de la página:

Download "MÓDULO # 1: Introducción al ensamble de computadores"

Transcripción

1 Página 1 de MÓDULO # 1: Introducción al ensamble de computadores OBJETIVOS Realizar una presentación global del contenido de la materia, buscando la motivación de los estudiantes. Conformar los grupos de trabajo para las sesiones prácticas. Repasar e introducir algunos conceptos importantes de electrónica digital y computadores. SECCIÓN 1: PRESENTACIÓN DE LA MATERIA (TEÓRICA) Realizar la presentación del programa de la materia. Organizar grupos de trabajo. Definir la metodología de evaluación. SECCIÓN 2: CONCEPTOS BÁSICOS SOBRE COMPUTADORES (TEÓRICA) El Bit, definición. Diferencia entre análogo, binario, digital. Sistemas de representación de dígitos. Definición de Memoria, tipos de memorias. Definición de Bus de información, clasificación de los Buses según su función. Códigos y representación de información. Dispositivos periféricos. Estructura básica de un sistema microprocesado completo. PREGUNTAS PARA RESOLVER EN CLASE 1. Dé un ejemplo de una señal que pueda ser al mismo tiempo binaria y análoga 2. Cómo se representa en binario el valor hexadecimal 0xBFD8? 3. Cómo se representa en hexadecimal el valor binario ? 4. Explique por qué no es posible utilizar una memoria ROM como memoria de datos. 5. Un mismo carácter puede ser representado por dos secuencias de dígitos binarios diferentes? 1

2 Página 2 de MÓDULO # 2: Evolución técnica del PC La fuente de alimentación OBJETIVOS Dar a conocer las tecnologías que dieron inicio a los computadores personales, su evolución hasta Analizar qué factores concedieron el dominio del mercado a algunos fabricantes y los hechos que permitieron la permanencia o desaparición de algunas tecnologías. Comprender las posibles implicaciones de nuevas tecnologías de PC s. Conocer la forma como trabaja una fuente de voltaje y un regulador electrónico. Conocer los voltajes que entrega una fuente de voltaje y su relación con los colores. SECCIÓN 1: EVOLUCIÓN DEL PC (TEÓRICA) LOS PRIMEROS PC El IBM PC, presentado el 12 agosto de 1981, fue un equipo cuyo objetivo era el mercado doméstico, con lo cual se comprenderán fácilmente las limitaciones existentes en la primera generación. Por lo que respecta al microprocesador se trataba del Intel 8088, una versión, con el bus recortado a la mitad de ancho, del Esta CPU suponía un avance respecto a los microordenadores comercializados en esa época, pues todos eran de 8 bit, a excepción del Olivetti M20, que incluía una CPU Zilog 8000 de 16 bit, aunque el 8088 no era un auténtico 16 bit. 2

3 Página 3 de El usar la CPU Intel 8088, con bus externo de 8 bit, tenía una explicación, poder usar todos los "chips" de acompañamiento (que en aquella época eran bastantes) existentes en el mercado, a precio barato, de 8 bit. Si se hubiera empleado la CPU Intel 8086, como hicieron de inmediato otras empresas como Olivetti en su M24 y Victor, todos estos chips habrían de ser de 16 bit, con un precio muy elevado en aquella época. Así se concluye que IBM, buscó el fabricar un equipo novedoso en su CPU, aunque limitando al máximo el precio de sus componentes, para mantener un producto de calidad alta, prestaciones superiores frente a los productos domésticos de la competencia, y a un precio que le permitiera mantener los grandes márgenes comerciales. La configuración básica estaba integrada por: CPU Intel 8088 a 4.77 MHz Controladora de vídeo modo texto Monitor exclusivamente de modo texto Lenguaje BASIC en ROM 64 kb RAM Controladora de impresora (Centronics) Cinta de casette para almacenar datos y programas Teclado, de 84 teclas Sin embargo esta versión no se llegó a comercializar pues se sustituyó la unidad de casette por una de disco flexible de 160 kb de capacidad, y como es lógico con su controladora. A su vez se introdujo el sistema operativo PC-DOS 1.0, proporcionado, aunque no creado, por Microsoft (en aquella época sólo era conocida por su lenguaje BASIC) a IBM. La gran ventaja de este equipo era su facilidad de ampliación debido a los "slots" o zócalos de que disponía, lo cual dio origen a que un gran número de empresas independientes crearan tarjetas electrónicas adaptables, que realizaban funciones no disponibles en el PC o que mejoraban las existentes. Estos zócalos constituyen el tan conocido BUS de expansión del PC, que dio lugar al BUS AT, un estándar a nivel microinformático, conocido como Bus ISA. Se define como ancho de banda del bus, la cantidad de bits que puede transportar por unidad de tiempo, siendo inferior a 4 MB/s. Dado que las especificaciones técnicas fueron hechas públicas por IBM, esto dio origen, como se ha comentado previamente, al nacimiento de gran cantidad de empresas que crearon tarjetas adaptables al bus. 3

4 Página 4 de Entre ellas se pueden citar, por ejemplo, tarjetas con un reloj con batería, pues el PC perdía la hora al apagarlo, tarjetas de vídeo con posibilidades gráficas y que por lo tanto soportaban un monitor gráfico y a veces en colores, tarjetas de comunicaciones como por ejemplo tipo modem o telex, y otras muchas posibilidades. Simultáneamente aparecieron los primeros microordenadores clónicos y compatibles. La gran difusión de estos equipos, hizo que aparecieran gran cantidad de programas, lo cual reforzó el liderazgo de los PC's de IBM. El PC AT de IBM Al descubrir IBM, que su equipo se estaba usando a nivel profesional, y poco a nivel doméstico, y que por otra parte la competencia ofrecía equipos con más prestaciones más baratos y totalmente compatibles, decidió sacar una versión mejorada de sus PC's, que denominó AT (Tecnología Avanzada). Este incluía una CPU de 16 bit, superior a la 8086, era la de Intel, cuya principal diferencia respecto a la 8086 era el bus de direcciones de 20 bit, en vez de 16, por lo que podía direccionar mucha más memoria, aunque en aquella época no era una gran necesidad. Otra diferencia fundamental, era que los "slots" de expansión constituían un bus de 16 bit, lo cual permitía utilizar las tarjetas de los XT, a 8 bit, y las nuevas que se crearan para él. Este BUS AT se ha convertido en un estándar (Bus ISA) ampliamente usado hasta hace poco tiempo. A su vez la frecuencia de reloj pasó a ser de 6 u 8 MHz, frente a los 4.77 del PC original. Dado que Intel dio licencias para que sus CPU's fueran fabricadas por otras empresas (Fujitsu, Siemens, AMD, Harris,...), se abarataron los costes de tal forma, que apareció el fenómeno de los clónicos tal como lo conocemos actualmente, lo cual perjudicó mucho a IBM, pues el mercado no sólo se distribuía entre IBM y las marcas de prestigio que comercializaban compatibles (Olivetti, Bull, Compaq, Xerox, AT&T, Philips, NCR y algunas otras), sino que empresas con pocos medios y con gastos nulos de investigación, pues gran parte del producto lo copiaban ilegalmente, podían ofrecer equipos clónicos a precios imbatibles, aunque la mayoría de las veces con una calidad y seguridad 4

5 Página 5 de para el usuario ínfimas. Parte o en algunos casos todas las tarjetas indicadas, hubo fabricantes que las incluyeron el la placa base, dejando así más zócalos libres en el BUS AT, para posteriores ampliaciones. La arquitectura de un AT estaba compuesta por: Fuente de alimentación conmutada Memoria RAM de 1 MB. ampliable Tarjeta comunicaciones RS 232C Tarjeta para ampliación de memoria Teclado mejorado de 104 teclas Los IBM PS/2 (1987) Placa base o placa madre, que incorpora: Conjunto de chips (ChipSet), que gestionan el sistema Tarjeta controladora impresora (Centronics) Bus con los "slots" de expansión CPU Intel con frecuencia de reloj desde 6 hasta 20 MHz Tarjeta controladora de vídeo, gráfico y color (640*200) Tarjeta controladora de dos discos duros MFM y dos disqueteras Bus Local PC Reloj en tiempo real, con batería Ante la situación de competencia en la que se vio inmersa IBM, actuó de dos formas, la primera fue exigir a todos los fabricantes que le habían copiado sus productos el pago de los "royalties" correspondientes, a lo cual, dado el inmenso poder de IBM, no se negaron, y por otra parte diseñar una nueva línea de equipos, legalmente muy difíciles de copiar por su gran detalle de patentes. De esta forma nacieron los IBM PS/2. Una de las innovaciones de estos equipos era el bus a 32 bit, podían incluir CPU Intel 386, muy mejorado, en el que se introducían las tarjetas de expansión, pues IBM lo cambió por completo, llamándole "Microchannel", lo cual dio lugar a los equipos con arquitectura MCA 5

6 Página 6 de (Arquitectura Microcanal). Otra innovación fue el cambio de tipo de monitores, y por lo tanto de controladora, se introdujeron los monitores analógicos, con una resolución superior a los previamente empleados (digitales) y con una variedad de colores muy superior. Estas dos innovaciones supusieron que no valía nada de lo anterior y que además los clónicos, en principio se verían desplazados del mercado. A su vez se introdujeron nuevas CPU s de Intel, las 386 y 386SX, con mejoras significativas frente a sus predecesoras. Simultáneamente a la aparición de estos equipos se comercializó un nuevo sistema operativo denominado OS/2, desarrollado entre IBM y Microsoft, aunque las versiones posteriores fueron creadas por IBM; actualmente ya no se comercializa. A su vez Compaq creó un bus específico para sus equipos de gama alta, el denominado Triflex, que comprende tres buses interconectados, uno de 128 bit para la memoria, otro de 64 bit para uno o dos microprocesadores 486 (a 267 MB/s) y un bus EISA (que se describirá en el apartado siguiente). El reconocimiento del fracaso de la arquitectura MCA, por parte de IBM, está claro, pues una nueva generación de equipos que comercializó posteriormente, para uso doméstico, los PS/1, no utilizaban arquitectura MCA. A su vez como no logró frenar el avance de los clónicos, IBM decidió comercializar clónicos de países asiáticos, con la marca Ambra, lo cual acabó en fracaso al poco tiempo. Actualmente IBM ha cerrado las divisiones de PC's domésticos, en varios países, debido a la baja cuota de mercado que alcanzan, aunque permanece en tercer lugar por número de PC's vendidos a nivel mundial, por detrás de Dell y Hewlett Packard. EL BUS EISA Dado que la arquitectura MCA era muy cerrada, un grupo de fabricantes de microordenadores, AST Research, Compaq Computer, Epson, Hewlett- Packard, NEC, Olivetti, Tandy, WYSE, and Zenith Data Systems, decidieron crear un bus con prestaciones superiores al ISA, pero que a su vez fuera compatible con él, esto dio origen al bus EISA (Extendido ISA). Sus características eran: 32 bit, ancho de banda de 33 MO/s y frecuencia de reloj 8 MHz. 6

7 Página 7 de EISA sólo se ha usado en los microordenadores de gama alta y ha tenido poca difusión, a pesar de sus ventajas sobre ISA y a valer las tarjetas de expansión existentes, lo cual repercutió en que no se abarataran los precios. De forma que en el año 1992 la situación era la siguiente: Bus ISA, un auténtico cuello de botella Bus MCA, muy restringido y sin difusión al gran público Bus EISA, sólo usado en equipos de gama alta Bus Local PC existiendo demanda para un ancho de banda aún mayor, lo cual daría origen a otros buses. Bus Local VESA (VLB) Es una extensión de la arquitectura tradicional del PC, dado que el bus ISA era cuello de botella, la solución es conectar algunos dispositivos directamente a la CPU, mediante un bus conocido como bus local. Este ha de tener el mismo ancho que el microprocesador (16 bit en un 286 o 386SX y 32 bit en un 386DX o 486), por lo que eran realidad las velocidades elevadas. Lo ideal es conectar a este bus las controladoras de vídeo y de disco duro, mientras que otras tarjetas que no requieren grandes velocidades se mantienen en el bus ISA. Surgieron algunos problemas, pues la CPU no puede soportar la conexión directa de más de dos o tres tarjetas, además el diseño de la placa base ha de hacerse de forma que las distancias sean mínimas para evitar retrasos. También es conveniente usar memorias caché. Su principal ventaja es que cuadruplican el ancho de banda, llegando a 133 MB/s. VESA es el acrónimo de la Asociación de Fabricantes de Controladoras de Vídeo (Video Electronics Standars Association), que agrupa a más de 120 fabricantes, y fueron los que lo propusieron, disponible desde finales de 1992 y desde 1996 fuera de uso. Este bus va a la misma velocidad que el procesador, siendo una solución sencilla, que no incluye soporte de DMA ni de interrupciones, lo que obliga a la mayoría de las tarjetas a estar conectadas 7

8 Página 8 de a los dos buses, el ISA y el VESA, para aprovechar del primero las caracteristicas de E/S y del segundo el ancho de banda. Al salir al mercado las placas madre con bus VESA, su precio era algo superior al de las con bus ISA, hubo una época en que dominaron el mercado, pero han desaparecido del mercado, frente al bus PCI. Para equipos Pentium sólo se llegaron a fabricar algunas placas VESA. Bus Local PCI PCI es abreviatura de "Peripheral Component Interface", diseñado por Intel. En 1992 Intel y otras compañías formaron el PCI Special Interest Group para promocionar, supervisar y mejorar el desarrollo de PCI como estándar de bus local abierto y no propietario. Este grupo cuenta con más de 160 fabricantes. Es una solución completa, dado que a diferencia del VESA incluye ventajas como el soporte de interrupciones y DMA. Lo cual implicaba que necesita tres chips específicos, y por lo tanto un coste superior. Las especificaciones del bus local PCI ofrecen un número de beneficios clave: Altas prestaciones Al contrario del bus local VESA que sólo está pensado para acelerar las aplicaciones gráficas, PCI es una solución de sistema global. Proporciona mayores prestaciones para los adaptadores de redes, unidades de disco duro, vídeo animado, gráficos y otros periféricos que requieren gran velocidad. Funcionando a una velocidad de reloj de 33 MHz, PCI emplea un bus de datos de 32 bit y ancho de banda de 132 MB/s, frente a 5 MB/s del bus ISA. Compatibilidad Es compatible, en la arquitectura de placas base, con ISA, EISA y MCA, y a veces también se encuentran placas que incluyen el VESA. A su vez cualquier tarjeta PCI funcionará con cualquier sistema compatible PCI, sin que importe el tipo de bus de expansión o Bus Local PC de CPU en uso. 8

9 Página 9 de Independencia del procesador La arquitectura independiente del procesador de PCI dispone de un diseño único de tampón intermediario entre el subsistema de la CPU y los periféricos. Lo normal es que si se añaden a la CPU más dispositivos, se degradan las prestaciones y baja la fiabilidad. El uso del tampón permite a los usuarios ampliar su sistema al añadir múltiples dispositivos periféricos e introducir variaciones de prestaciones a diferentes velocidades de reloj. El diseño independiente del microprocesador aseguran que los diseños de las placas no se quedarán obsoletos. Soporte de plataforma flexible PCI proporciona una solución de bus local económica para cualquier tipo de equipo, no sólo los normales, sino para los servidores y los portátiles Rentabilidad PCI se diseñó con un objetivo de bajar los costes globales de los desarrollos. Utiliza "chips", ya sean fabricados por Intel o por otras empresas como VIA y Opti, altamente integrados, para incorporar funciones de sistema como controladores de DRAM y caché, eliminando costes y espacio asociados con la circuitería de soporte, Frente a los chips VESA con 80 patillas, los PCI son más pequeños, pues multiplexan los buses de datos y direcciones. Desarrollos posteriores del bus PCI Dado que la arquitectura de este bus es muy flexible, se efectuó un desarrollo específico para equipos de aplicaciones industriales. Empresas de dicho entorno crearon unas especificaciones dando lugar al denominado Compact PCI, que ofrece la posibilidad de diseñar ordenadores con dimensiones reducidas, (placas de 160 * 100 mm) soportando ambientes agresivos. Otra de las ventajas es que se pueden crear puentes con otros buses estándares en la industria, como VME y STD. La versión 2.2 de las especificaciones, ofrece como novedad más importante, que los nuevos equipos de acuerdo con esta versión, 9

10 Página 10 de permiten el intercambio de placas en el bus, sin necesidad de apagar el ordenador. La última versión está operativa desde junio de 2004 y se denomina PCI Express, siendo muy superior en prestaciones respecto al bus AGP, que se creó para mejorar la velocidad de acceso de los controladores gráficos al microprocesador del ordenador. Comparación entre buses Nombre Nº bit MHz Ancho MB/s ISA 16 8 <4 MCA VESA 64 =CPU 133 PCI

11 Página 11 de SECCIÓN 2: LA FUENTE DE ALIMENTACIÓN (PRÁCTICA) LA FUENTE DE ALIMENTACION. Cuando la caja del ordenador está abierta se pueden ver las diferentes partes del PC: la placa madre, las unidades de disco, la tarjeta de video y la fuente de alimentación. La fuente de alimentación es una caja metalica con cables de diferentes colores saliendo de ella. Entre una fuente XT y una AT no hay diferencias. Puede existir una notable ampliación del tamaño de su alojamiento, pero la circuiteria sigue siendo la misma, las tensiones son las mismas y las disposiciones de las salidas de tensiones también, por más que cambien los colores de los cables (como en el caso de las Compaq o IBM). Los colores no son normas establecidas, sin embargo en la tabla superior se muestran los colores típicos. Ahora bien, en que se diferencian las circuiteria de las XT/AT con las ATX? La diferencia fundamental está en que no hay llave de encendido, ya que se realiza un encendido por "software" a través de líneas de control, de resto, el primario no cambia para nada, una resistencia de más o un transistor adicional para reforzar las corrientes o hacerlas más confiables en la conmutación del par de transistores del lado del primario. Otra diferencia fundamental es que EL PRIMARIO ESTA SIEMPRE FUNCIONANDO A LOS 110/220 CON TODAS SUS CAPACIDADES. La placa base de la PC, es la que a través de un pulso, le da la orden de encendido pleno a la fuente y es cuando uno escucha el típico sonido del ventilador, eso implica que la fuente esta entregando, aun apagada, dos valores de tensión: Los 3,3 volts a la CPU Los +5 volts de mantenimiento 11

12 Página 12 de Lo cual significa que con la fuente enchufada a la red no se debe tocar la placa base, ya que ésta recibe aún alimentación. En ciertos casos incluso puede estar funcionando la CPU y la memoria, denominado modo Sleep o de espera, por lo que se puede averiar algo si manipulamos el ordenador así. No obstante hay que mencionar que si apagamos el ordenador completamente, sin activar el modo de espera, sólo ciertas zonas de la placa base estarán funcionando para realizar el arranque por lo cual, siempre es recomendable desconectar la fuente para realizar cualquier tipo de mantenimiento. Un ejemplo de las consecuencias que las fuentes ATX provocan en los servicios técnicos sin la debida precaución es que en muchos casos el ordenador se arranca sólo al insertar alguna placa en los slots de expansión, o viceversa, con el consecuente peligro de avería. Si en algún caso la fuente no se apaga al pulsar el botón de apagado hay que dejar pulsado éste hasta que se apague. Adicionalmente una fuente XT/AT solo tiene las tensiones y la tensión de control PG (+5 con carga en los +5, cable rojo). Las ATX tiene las mismas tensiones además de la de +3,3 volts, tres cables de color naranja y cambia el color de naranja de los +5 PG (mantiene esta misma tensión) por otro color que en la mayoría de los casos es de color gris, y además incrementa un cable mas de color normalmente verde, que es el arranque por software de la fuente (la placa base la manda a masa, o sea a uno de los tantos negros que salen de la fuente). Para ver si la fuente esta bien solo hay que puentear el cable verde con uno de los negros, previo a cargar la fuente con una lámpara de 12 v / 40 w sobre el cable rojo y un negro de la fuente, para luego medir que las tensiones estén presente Primario Secundario 12

13 Página 13 de I. FUENTE AT Pin Función Color 1. Power Good * Naranja 2. +5Vdc Rojo Vdc Amarillo Vdc Azul 5. Tierra Negro 6. Tierra Negro 7. Tierra Negro 8. Tierra Negro 9. -5Vdc Blanco Vdc Rojo Vdc Rojo Vdc Rojo II. FUENTE ATX Vista Frontal Vista Posterior 13

14 Página 14 de Color Señal Pin Pin Señal Color Naranja* +3.3V V Naranja Azul 12V V Naranja Negro GND 13 3 GND Negro Verde PS_On V Rojo Negro GND 15 5 GND Negro Negro GND V Rojo Negro GND 17 7 GND Negro Negro 5V 18 8 Power_Good Gris Rojo +5V VSB (Standby) Violeta Rojo +5V V Amarillo * Puede tener también un segundo cable café o naranja que sensa el voltaje de 3,3 voltios para regularlo 14

15 Página 15 de Formatos de placas base Baby AT: Este formato está basado en el original del IBM PC-AT, pero de dimensiones más reducidas gracias a la mayor integración en los componentes de hoy en día, pero físicamente compatible con aquel. Entre sus ventajas cabe destacar el mejor precio tanto de éstas como de las cajas que las soportan, aunque esta ventaja desaparecerá a medida que se vaya popularizando su contrincante. Leyendo las ventajas de las placas ATX se pueden entrever los inconvenientes de dicha arquitectura. La especificación Baby- AT es esencialmente la misma que la de la placa del IBM XT, con modificaciones en la posición de los agujeros de los tornillos para poder encajar en una carcasa de tipo AT. Virtualmente todas las placas AT y Baby-AT usan el mismo conector para el teclado (DIN de 5 pins). Las placas Baby-AT encajan en todo tipo de carcasas excepto en las de perfil bajo o extrafinas. Este formato debe su éxito a la flexibilidad de su diseño, aunque dicha flexibilidad sea así mismo su principal fuente de problemas, por ejemplo, las ranuras de expansión se sitúan generalmente en la parte posterior izquierda de la placa colocando el microprocesador justo frente a las mismas. Esto era perfectamente válido cuando los chips aún eran lentos y disipaban poco calor, pero el aumento de velocidad de los mismos obligó posteriormente a la incorporación de componentes capaces de refrigerarlos en lo posible. Tales componentes suelen dificultar la instalación de las tarjetas de expansión más largas, bloqueando algunos de los slots. 15

16 Página 16 de El mantenimiento o actualización de determinados componentes se convierte poco menos que en un castigo cuando es preciso desmontar medio ordenador hasta que se puede llegar a ellos con holgura. Es lo que sucede, generalmente, con los zócalos de memoria, que se encuentran tapados por una maraña de cables y fajas o, incluso, por las propias unidades de almacenamiento (disqueteras o discos duros). Por si esto no fuera suficiente, el propio diseño Baby-AT dificulta la integración de componentes adicionales, como controladora gráfica, controladora de sonido o soporte para red local, aunque en los últimos tiempos los fabricantes parecen haberse enfrentado con éxito a dicho problema, si bien en algunas ocasiones nos encontramos con placas que dan extraños errores de comportamiento frente a determinados programas o sistemas operativos. Formato ATX: El formato ATX se ha pensado (al igual que el Baby-AT) para que los conectores de expansión se sitúen sobre la propia placa, con lo que los equipos seguirán teniendo un tamaño similar al de los actuales, aunque para discos más compactos también se ha definido una versión más reducida denominada mini-atx (de unos 280 por 204 milímetros). Eso en cualquiera de ambos se permite la utilización de hasta 7 ranuras de expansión de tipo ISA o PCI, localizadas en la parte izquierda de la placa, mientras que el zócalo del procesador se ha desplazado a la parte posterior derecha junto a la fuente de alimentación (que también se ha visto renovada). De esta forma los elementos de refrigeración dejan de ser un obstáculo, mismo tiempo que el micro se beneficia del flujo de aire adicional que representa el ventilador de la fuente. Este formato también permite que elementos como los zócalos de memoria queden ahora más accesibles, al tiempo que reduce la cantidad de cables presentes en interior del equipo, al situar los conectores de las controladoras de disco justo debajo de las unidades de almacenamiento. Esto tiene la ventaja añadida de eliminar el peligro de interferencias, algo que sucede a medida que aumentan las frecuencias de funcionamiento de los PC. PREGUNTAS PARA RESOLVER EN CLASE Cuáles son los motivos para que una tecnología perdure? Qué parámetros miden el desempeño de una Motherboard, una memoria y de los buses? 16

17 Página 17 de Qué parámetros miden el desempeño de un disco duro y otros dispositivos de almacenamiento? Cuál ha sido el objetivo de las nuevas tecnologías en su momento de aparición? 17

18 Página 18 de MÓDULO # 3: Fuente y motherboards OBJETIVOS Identificar las partes internas de una fuente de voltaje y las conexiones externas. Explicar la forma de detectar daños en una fuente y posibles problemas. Introducir el concepto de bus como un estándar y explicar los diferentes tipos de conectores de expansión para módulos o tarjetas. Explicar el concepto de tasa de transferencia de información y establecer las comparaciones entre diferentes dispositivos. SECCIÓN 1: LA FUENTE DEL PC (PRÁCTICA) La línea de potencia: Fase, neutro y tierra. Tipos de interruptores AT y ATX. Conexión interna del primario de la fuente, conexión del switch. Secundario de la fuente de voltaje, conectores y voltajes de salida. Medición de voltajes en una fuente, daños comunes. El ventilador de la fuente, potencia máxima de salida. Instalación de la fuente en la caja. NOTA: Al finalizar la clase se debe entregar un resumen con los procedimientos y explicaciones desarrollados SECCIÓN 2: MOTHERBOARDS: BUSES, SOCKETS Y SLOTS (TEÓRICA) El Bus y las ranuras de expansión. Son el conjunto de líneas o caminos por los cuales los datos fluyen internamente de una parte a otra de la computadora (CPU, disco duro, memoria). Puede decirse que en las computadoras modernas hay muchos buses, por ejemplo entre los puertos IDE y los drives, entre una placa Aceleradora de video y la memoria Ram, entre el modem y el Chipset, etc. Pero Los buses básicos son: a) El bus interno (bus de datos), o sea el que comunica los diferentes componentes con la CPU y la memoria RAM, formado por los hilos conductores que vemos en el circuito impreso de la placa, y el bus de direcciones. 18

19 Página 19 de b) El bus de expansión constituido por el conjunto de slots o ranuras (de expansión) en donde se insertan placas independientes de sonido, video, modem, etc. De la velocidad de transmisión del bus interno depende la selección de algunos componentes como el Microprocesador y la memoria Ram en una motherboard, entendiéndose por ejemplo que una PLACA BASE cuya velocidad de transferencia es de 100 MHz, no admite procesadores Pentium IV (que necesitan buses con mayor velocidad de transmisión) ni módulos de memoria que trabajan exclusivamente en buses con velocidad de 133 MHz. Por otra parte es importante resaltar la diferencia de conceptos que hay entre: numero de líneas de un bus (16, 32, 64 bits) y la frecuencia de trabajo del bus. La multiplicación de estos dos factores representa el troughput (conocido como ancho de banda) y se mide en Mb/s. Todo bus local esta compuesto de dos áreas: datos y direcciones. El bus de datos lo forman las líneas dedicadas a la transmisión de señales u ordenes, el bus de direcciones lo constituyen las líneas que dan a conocer las posiciones de ubicación de los datos en la memoria (registros). 1. Buses actuales. En conjunción con la Informática, la electrónica innova permanentemente para crear nuevas y más eficientes rutas de comunicación entre los PC y sus periféricos. Muchas de estas vías pueden realmente llamarse buses entre tanto que otras solo deben clasificarse como puertos. A continuación una descripción de las principales tecnologías empezando por las de mayor relevancia. BUS AGP. Accelerated Graphics Port. Se trata de un bus independiente del bus general constituido por un slot específico para tarjetas gráficas. Es un bus de 32 bits que trabaja a 66 MHz, pero tiene la posibilidad de doblar o cuadruplicar las características básicas, hasta una tasa de transferencia máxima de 1064 Mbits por segundo. Puede decirse que no es un bus en el sentido estricto de la palabra sino más bien una extensión de la norma PCI, razón por la cual en algunos aspectos es idéntico a aquel. Actualmente es un puerto de uso exclusivo para dispositivos gráficos de alta velocidad. 19

20 Página 20 de BUS USB Universal serial bus. Es un nuevo estándar para comunicaciones serie que resuelve muchos de los inconvenientes de los antiguos puertos COM (dificultades en la adaptación a un puerto COM libre, conflicto de los vectores de interrupción IRQ, etc.). Presenta muchas ventajas frente a sistemas tradicionales: velocidades de trabajo hasta de 480 Mb/s (USB 2.0), incluye alimentación eléctrica para dispositivos con bajo consumo de energía ( alrededor de los 5 voltios), permite conectar hasta 127 dispositivos, todos ellos compartiendo el mismo canal; permite realizar conexión y desconexión en "caliente" (sin apagar el equipo), permite utilizar cables de hasta 5m de longitud para dispositivos de alta velocidad. Actualmente todos los PCs disponen de por lo menos un par de salidas USB y muchos dispositivos, como impresoras, ratones, escáneres, webcams, equipos de fotografía digital, etc. que antes se conectaban a través de puertos COM o LPT lo hacen ahora mediante USB. BUS SCSI. 1980, Small Computer System Interface. Es la interface de mayor capacidad, velocidad y estabilidad para conectar dispositivos directamente a una motherboard. En las computadoras desktop, SCSI es una interface pues se fabrica sobre una placa que se inserta en un slot de la motherboard (actualmente en slots PCI). Esta independencia física del microprocesador tiene la gran ventaja de hacer que los dispositivos se direccionen lógicamente en contraposición al direccionamiento físico que utiliza IDE. La consecuencia inmediata es que los dispositivos quedan liberados de las imposiciones que el Bios pudiera imponer pues SCSI se encarga de hacer el trabajo completo de comunicación y configuración. Esta capacidad lo ha hecho el preferido en equipos en los que se requiere estabilidad y alta velocidad de transmisión, como los servidores. La última versión de SCSI es la Wide Ultra2 SCSI, que usa un bus de 16 bits, un ancho de banda de 80MB/s y trabaja con cables planos de 68 hilos. La interfase al trabajar como un dispositivo I/O (de entrada y salida) permite en teoría conectar 8 dispositivos simultáneamente, en una conexión en la que cada dispositivo se une al siguiente y en donde cada dispositivo tiene su propio ID ante el host. El mayor uso de SCSI se da en la conexión de discos duros, tape drives, unidades ópticas, escáneres e impresoras. Los dispositivos externos que trabajan con interface SCSI tienen dos puertos: uno para la entrada del cable y otro para conectarse 20

21 Página 21 de al siguiente dispositivo. El último elemento debe cerrar la cadena mediante un circuito 'terminador' para que la conexión funcione. Bus 1394 FireWire En 1995 el "Institute of Electrical and Electronics Engineers (IEEE)" estableció las bases de un nuevo estándar, el bus serie de elevadas pretaciones IEEE1394. Desde 1986 se ha tendido a unificar los diferentes buses en serie, la aparición de nuevos dispositivos grandes consumidores de un gran ancho de banda, como los DVD, ha dado lugar al nacimiento de las especificaciones del bus Firewire. Esta norma se puede resumir en los siguientes puntos: Transferencia de datos en tiempo real para aplicaciones multimedia. Flujos de transferencia de hasta 200 Mb/s, ampliable en el futuro hasta 800 Mb/s. Conexión en caliente (sin desconectar la alimentación eléctrica), sin pérdida de datos. Topología de red flexible, incluyendo al de bus y en grafo. Sin necesidad de terminadores en los extremos. Conectores comunes para todos los componentes Posibilidad de conectar entre sí hasta 63 dispositivos Presenta ventajas frente al resto de buses, incluso frente al USB, aunque no puede competir en precio. Frente al bus PCI, de momento es más lento. Los productos más usuales con este bus son, cámaras digitales, cámaras de vídeo, discos, sistemas de captura, cintas DAT (Digital Audio Tape), CD's, ZIP's, sistemas de almacenamiento magnetoópticos e impresoras. PREGUNTAS PARA RESOLVER EN CLASE Entregar un resumen de lo visto en la sección práctica de la clase (sección 1) Realizar una tabla comparativa que indique el nombre de los buses, sus tasas de transferencia, su fecha de aparición desaparición. ACTIVIDAD EN CLASE Desarmar y armar la fuente y el regulador de voltaje 21

22 Página 22 de Conectar el switch de la fuente Ensamblar la fuente en la caja Entregar un resumen por grupo que contenga: o Explicación sobre FSB o Otros tipos de buses (PCI-X PCI Express), cuál es el dispositivo que lo usa? o Explicación del concepto de puerto o Explicación de qué es un bus local. o Diferencia entre MBps y Mbps TAREA DE CONSULTA OBJETIVOS Consulte cuáles son actualmente las velocidades más altas de transferencia de información para una memoria RAM, un disco duro y un bus local. Realice una tabla comparativa, por años, que contenga todos los tipos de buses, su velocidad de transferencia y uso. MÓDULO # 4: Motherboards Conocer diferentes tipos de Motherboards de las primeras generaciones. Ensamblar un equipo con procesador a su mínima capacidad. Conocer los mínimos requisitos de componentes de hardware para revisar el funcionamiento de un equipo. Proporcionar las bases teóricas de los componentes diferenciadores de una motherboard. SECCIÓN 1: 8088 HASTA 486 (PRÁCTICA) Al finalizar esta parte, se debe entregar un informe que contenga los procedimientos desarrollados en la descripción y montaje de los diferentes equipos trabajados. SECCIÓN 2: MOTHERBOARDS: LA BIOS Y EL CHIPSET (TEÓRICA) 22

23 Página 23 de La Motherboard se distingue bajo varios nombres en computación: placa base, placa principal, placa madre y main board. Algunas compañías, como IBM, se refieren a la tarjeta madre como tarjeta del sistema o tarjeta plana. Los términos tarjeta madre, tarjeta principal, tarjeta del sistema o tarjeta plana se emplean indistintamente. La placa base es el esqueleto de nuestro ordenador. En sus ranuras van fijados todos los demás componentes, y su calidad influirá sustancialmente en la velocidad del equipo, además de sus posibilidades. Se puede afirmar que es el componente más importante en un PC. Dado que representa un organismo central, debemos comprender como funciona y como está distribuida a fin de diagnosticar acertadamente los problemas que se derivan de ella. Algunos fabricantes hacen sus sistemas tan incompatibles físicamente con otros sistemas como sea posible, de tal suerte que las refacciones, reparaciones y actualizaciones son prácticamente imposibles de encontrar o realizar - excepto, por supuesto, con el fabricante original del sistema, a un precio significativamente más alto del que costaría la parte equivalente en un sistema estándar. En otras palabras, actualizar o reparar estos sistemas mediante sustitución de la tarjeta madre u otro componente es difícil y por lo regular no es costeable. 2. La BIOS La BIOS (Basic Input Output System, Sistema de entrada/salida básico) es una memoria ROM, EPROM o FLASH-Ram la cual contiene las rutinas de más bajo nivel que hace posible que el ordenador pueda arrancar, controlando el teclado, el disco y la disquetera permite pasar el control al sistema operativo. 23

24 Página 24 de Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque suele estar hecha con esta tecnología), que almacena todos los datos propios de la configuración del ordenador, como pueden ser los discos duros que tenemos instalados, número de cabezas, cilindros, número y tipo de disqueteras, la fecha, hora, etc..., así como otros parámetros necesarios para el correcto funcionamiento del ordenador. Esta memoria está alimentada constantemente por una batería, de modo que, una vez apaguemos el ordenador no se pierdan todos esos datos que nuestro ordenador necesita para funcionar. Ahora todas las placas suelen venir con una pila tipo botón, la cual tiene una duración de unos 4 ó 5 años (aunque esto puede ser muy variable), y es muy fácil de reemplazar. Antiguamente, las placas traían una pila corriente soldada en la placa base, lo que dificultaba muchísimo el cambio, además de otros problemas como que la pila tuviera pérdidas y se sulfataran ésta y la placa. Además, la BIOS contiene el programa de configuración, es decir, los menús y pantallas que aparecen cuando accedemos a los parámetros del sistema, pulsando una secuencia de teclas durante el proceso de inicialización de la máquina. 3. El Chipset El juego de chips de una placa base, o chipset, es posiblemente su componente integrado más importante, ya que controla el modo de operación de la placa e integra todas sus funciones, por lo que podemos decir que determina el rendimiento y características de la misma. Determina lo que puede hacer el ordenador, desde el soporte para varias CPU, hasta o el tipo de memoria que se puede utilizar. Es el encargado de comunicar entre sí a todos los componentes de la placa, y 24

25 Página 25 de los periféricos. Una placa puede disponer de zócalos DIMM, pero si el chipset incluido no los soporta, no podrán utilizarse. El chipset incluye circuitos como el controlador de interrupciones, los controladores DMA, el chip temporizador, controladoras de disco duro, entre otros; además determina algunas características básicas de la placa base, que son inalterables. Por ejemplo el tamaño máximo de memoria que es capaz de soportar, o los tipos y velocidades de bus, por esto, conocer sus características es muy importante. Mediante este elemento se han integrado en unos pocos componentes los que antes se encontraban un número de chips independientes relativamente elevado. Con el paso del tiempo, en el chipset se han ido incluyendo algunos nuevos tipos de dispositivos que han surgido con el avance tecnológico, como es el caso de las controladores de bus USB, el bus AGP, el bus PCI, funciones de administración de energía, etc. Este proceso de integración va a continuar en el futuro. Intel fabrica los modelos oficiales para sus procesadores, aunque otras marcas como VIA, SiS o ALI fabrican clónicos a un precio más reducido. En el caso del Pentium ha habido un gran grupo de chipsets, no sólo los Tritón, sino los Zappa, Endeavour. Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para ratones y teclados de tipo PS/2, de puertos infrarrojos (que permiten la comunicación, sin cables, con dispositivos de este tipo) e incluso el bus Firewire o IEEE1394. Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración gráfica 3D de Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son aconsejables, pues disponen de menos calidad que los periféricos adquiridos independientemente. También pueden encontrarse chips que miden la temperatura del procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de periféricos, cuando no se utilizan, para ahorrar energía. Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software que debe acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para dispositivos como la controladora de disco duro. 25

26 Página 26 de Chipset Tabla comparativa de chipsets Intel para Pentium Max. Memoria cacheable SDRAM EDO Tipo IDE 430FX 128MB. 128MB. - ATA - 430HX 512MB. 512MB. - ATA 430VX 128MB. 64MB. ATA USB 430TX 256MB. Chipset 440LX 440BX 64MB. ATA- 33 Tabla comparativa de chipsets Intel para Pentium II Aconsejado para Pentium II a 66 Mhz de bus. Pentium II con bus a 100 Mhz. Max. 1GB. EDO 512MB. SDRAM Memoria SDRAM EDO 1GB. - AGP 440EX Celeron 256MB. 440GX Xeon 2GB NX Xeon servidor 8GB. - Desde finales del 1996 podemos encontrar el ATX. No mejora la velocidad, sino la flexibilidad, integración y funcionalidad. Reorganiza la distribución de los componentes de la placa base, de forma que al insertar tarjetas no se tropiecen con chips como el procesador. Además, se acorta la longitud de los cables y se mejora la ventilación de los componentes. También cambia el conector de alimentación para la placa base y la forma de la caja, por lo que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite integrar componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una calidad bastante mediocre. Por tanto, si queremos instalar 26

27 Página 27 de tarjeta gráfica y de sonido independientes, tendremos que buscar una placa base ATX sin estos componentes integrados en ella. PREGUNTAS PARA RESOLVER EN CLASE Qué componentes deben estar instalados como mínimo en un equipo para poder verificar su funcionamiento? Qué significa northbridge y southbridge y cómo se relacionan con el FSB? Cuáles fueron las funciones típicas por épocas y cuáles se fueron agrgando a la motherboard? Haga una lista de los modelos y fabricantes de chipset vistos en clase. ACTIVIDAD EN CLASE Realice un diagrama completo de la motherboard(layout), identificando plenamente la BIOS, el chipset las ranuras, socket y conectores. OBJETIVOS MÓDULO # 5: Máquina 486 Procesadores y RAM Conocer las opciones de configuración básicas de la BIOS a través del programa SETUP. Proporcionar la teoría sobre microprocesadores y memorias RAM. SECCIÓN 1: Práctica ensamble equipo 486 (set up). (PRÁCTICA) LA BIOS es una memoria especial que contiene las rutinas necesarias para que el ordenador funcione correctamente y gestione las operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic Input/Output System (Sistema básico de entrada/salida). Es muy recomendable que se pueda actualizar por software, es decir, tipo Flash, y que sea lo más reciente posible. Con respecto al programa de Setup, teniendo en cuenta nuestros conocimientos nos decantaremos por una BIOS con el mayor número de funciones de configuración automática posible (detectado de unidades IDE y de sus parámetros, 27

28 Página 28 de ajuste automático de velocidades de acceso a RAM y a caché, etc), o por otro lado, podemos desear un mayor control de sus parámetros para ajustar al máximo el rendimiento. Una BIOS buena debe permitir arrancar el ordenador desde varios formatos, como un disquete, un disco duro IDE o SCSI, un CD-ROM, un puerto USB o desde un puerto de red. Igualmente, conviene que las funciones automáticas de Plug and Play puedan configurarse manualmente (asignar IRQ y canales DMA para los posibles conflictos). Y se deben poder desactivar por Setup los puertos serie y paralelo, o poder modificar sus direcciones de I/0 e IRQ para solucionar problemas al instalar nuevos dispositivos. Hay distintos fabricantes de BIOS. Los más conocidos son Award y AMI. Por norma las opciones que nos encontramos en estas BIOS son diferentes. Por ejemplo, ambas tienen la posibilidad de obtener los parámetros de los discos duros instalados, pero sin embargo, la de Award no tiene la posibilidad de formatearlos (sólo a bajo nivel) mientras que la BIOS de AMI sí. La de AMI da la posibilidad de utilizar el ratón, mientras que la de Award no. Se accede pulsando la tecla SUPR mientras hace el test de memoria al arrancar, aunque en otras placas más raras se hace con F1, F12 o combinaciones de otras teclas. Ante todo hay que decir que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en algo, le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un ejemplo: en las BIOS que soportan RAM y RAM EDO, hay una opción que permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más lento, con el fin de que vaya bien con las dos memorias. Hay dos métodos para restaurar los valores iniciales en caso de error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá 28

29 Página 29 de que quitar la pila de litio que alimenta a la CMOS. A continuación se listan los valores de menú más comunes: STANDARD CMOS SETUP Fecha y hora. Si se tiene Windows 95 OSR2 o Windows 98, ésta será la hora que te aparecerá en la barra de tareas de Windows, así que pon la correcta). Primary Master/Primary Slave/Seconday master/secondary Slave: si tu BIOS lo soporta, déjalo en TYPE AUTO para quitarte problemas (lo detecta todo correctamente) y pasa al siguiente apartado. Si no tienes auto, sigue leyendo: TYPE: 1-46, son discos duros predefinidos; USER es el introducido por el usuario o el detectado por el IDE HDD AUTO DETECTION (recomendamos usarlo), y AUTO es lo que hemos dicho en el párrafo anterior. CYLS, HEAD, SECTOR: son los cilindros, cabezas y sectores. Es muy importante saberlo, especialmente si la opción IDE HDD AUTO DETECTION nos presenta las tres opciones del MODE (NORMAL, LARGE y LBA). Si no los sabes, ya puedes ir comenzando a desmontar el ordenador y mirar la pegatina del disco duro. PRECOMP Y LANDZ: son dos valores arbitrarios y casi podemos meter el número que nos dé la gana sin que afecte al rendimiento. Se puede poner un 0 (cero) en ambos casos, y en el segundo también un Por ejemplo, el LANDZ es el lugar donde se coloca el brazo lector del disco duro al principio. MODE: es el método de acceso a los discos duros. NORMAL es el modo de acceso tradicional, de menos de 528 Mb., LBA es para más de 528 Mb. y LARGE es para discos de 528 Mb. sin LBA. Al menos ésta es la teoría, pues nosotros tenemos un disco IDE de 6,3 Gb. y el IDE HDD AUTO DETECTION sólo muestra la opción NORMAL. También aparece una opción AUTO para que lo detecte solo. FLOPPY DRIVE A/FLOPPY DRIVE B. Con esto pondremos el tipo de unidad de disquete que se está utilizando en ese momento, con una relación entre el tamaño del disquete y su tamaño en pulgadas. Si tienes una sola unidad recuerda ponerla como A: y dejar la B: vacía BOOT SECTOR VIRUS PROTECTION: Esto también puede situarse en el apartado BIOS FEATURES SETUP. Hay que dejarlo en DISABLED sobre todo cuando instalamos Windows. BIOS FEATURES SETUP 29

30 Página 30 de Aquí suelen diferir unas BIOS de otras. Primero pondremos las opciones de una BIOS moderna y después las de una BIOS un poco más antigua: 1st Boot Device/2nd Boot Device/3rd Boot Device/4th Boot Device: Decide el orden en que quieres que el ordenador reconozca las unidades con los archivos de arranque (recuerda que son el COMMAND.COM, IO.SYS y MSDOS.SYS). Dichas opcionses pueden ser: IDE 0: Arranca desde el disco IDE maestro en el canal primario IDE 1: Arranca desde el disco IDE maestro en el canal segundario IDE 2: Arranca desde el disco IDE esclavo en el canal primario IDE 3: Arranca desde el disco IDE esclavo en el canal secundario Floppy: Arranca desde la(s) unidad(es) de disquete ARMD FDD/ARM HDD: Arranca desde una unidad LS-120 o ZIP, o desde un disco IDE maestro en el canal primario CDROM: Arranca desde una unidad CD-ROM ATAPI (según nuestras pruebas, puede ser IDE o SCSI) SCSI: Arranca desde una unidad SCSI (según lo tengamos en la BIOS de la controladora SCSI) Network: Arranca desde la red TRY OTHER BOOT DEVICES: Prueba otras opciones que no haya sido posible incluir en las 4 anteriores. QUICK BOOT: Recomendamos poner DISABLED. Lo que hace botear rápidamente cuando el ordenador está encendido. La opción DISABLED da tiempo para pulsar la tecla <Del> (es decir, SUPR) mientras hace el test de memoria, y espera durante 40 segundos a recibir alguna señal del disco duro IDE (en el caso de que lo tengamos configurado, aunque este tipo suele ser mucho menor si lo está correctamente. ENABLED hace que no espere a reconocer el disco IDE, y si no recibe una señal inmediatamente no lo configurará. Tampoco podremos arrancar la BIOS pues no saldrá el mensaje de pulsar la tecla <Del>. En este último caso, para entrar en la BIOS tendremos que apagar y encender el ordenador con el botón frontal. ABOVE 1 MB. MEMORY TEST: SÓLO SALE SI LA ANTERIOR OPCIÓN ESTÁ EN ENABLED. Permite testear o no más allá del Mb. de memoria. Recomendamos dejarlo en ENABLED, ya que si no hace el test podemos tener problemas. BOOT UP NUMLOCK STATUS: ON hace que las teclas de la calculadora del teclado (a la decha del todo) funcionen como números, y OFF hace que funcionen como flechas. 30

31 Página 31 de FLOPPY DRIVE SWAP: Si está en ENABLED cambia la unidad A: por la B: sin tener que hacerlo con el cable físico. Normalmente déjalo en DISABLED. FLOPPY ACCESS CONTROL y HARD DISK ACCESS CONTROL: Determinan el tipo de acceso a su respectiva unidad. Las opciones son READ/WRITE o READ-ONLY (Escritura/Lectura o Sólo Lectura). Si no es por alguna extraña razón, déjalo siempre en READ/WRITE PS/2 MOUSE SUPPORT: Permite con ENABLED activar el soporte para un ratón del tipo PS/2 y con DISABLED dejarlo para que funcione enchufado en un puerto serie. En el caso de que exista un jumper en la placa base, habrá que unir las patillas 2-3 para activar el soporte PS/2 (normalmente este jumper no suele existir). PRIMARY DISPLAY: Es el tipo de monitor conectado al ordenador. Puede ser MONO, CGA 40x25, CGA 80x25, VGA/EGA o ABSENT (Ausente). Tienes un monitor digamos "normal" pon VGA/EGA si no quieres tener algunos efectos indeseados. PASSWORD CHECK también llamada SEGURITY OPTION: Sirve para poner una contraseña. Tiene tres opciones: ALWAYS es para ponerlo al iniciar un ordenador (se queda el llamado "prompt" o guión parpadeante esperando a que lo introduzcamos), SETUP (sólo sale al entrar en la BIOS) o DISABLED (recomendado) para desactivarlo. BOOT TO OS/2: Por esta opción en ENABLED si tienes el sistema operativo OS/2 y quieres que use más de 64 Mb. de la memoria del sistema. Si no tienes OS/2, déjalo en DISABLED EXTERNAL CACHE: Permite usar la caché L2 de la placa base. Recomendamos altamente poner ENABLED, aunque si tienes problemas no tendrás más remedido que dejarlo en DISABLED. SYSTEM BIOS CACHEABLE: Cuando se pone en ENABLED (altamente recomendable) el segmento de memeoria F0000h puede ser escrito o leído en la memoria caché. El contenido de este segmento de memoria se copia siempre de la ROM de la BIOS a la RAM del sistema para una ejecución más rápida. VIDEO SHADOW: Cuando se pone ENABLED, la BIOS se copia a la memoria del sistema e incrementa la velocidad de vídeo. Puede tener 2 ó 3 opciones: si tiene ENABLED y DISABLED, ponlo en ENABLED; y si tiene ENABLED, CACHED y DISABLED, pon CACHED. Activarlo puede dar problemas en sistemas operativos de 32 bits. C8000-CBFFF Shadow / CC000-CFFFF Shadow / D0000-D3FFF Shadow / D40000-D7FFF Shadow / D8000-DBFFF Shadow / DC000-DFFFF Shadow: Son distintos datos extendidos localizados en la ROM que se 31

32 Página 32 de copian a su respectivo rango de direcciones en la memoria el sistema. Normalmente está puesto en DISABLED (lo recomendamos para usuarios INEXPERTOS - NORMALES), aunque los más EXPERTOS o simplemente para probar podéis poner algunas opciones en ENABLED a ver qué pasa. * otras opciones: CPU INTERNAL CACHE: Sirve para activar la caché interna del micro, y siempre hay que ponerlo en ENABLED. IDE HDD BLOCK MODE: Transfiere los datos por bloques, y lo soportan los discos de más de 100 Mb. GATE A20 OPTION: Referente a la RAM, ponlo en ENABLED MEMORY PARITY CHECK: Hay que ponerlo en DISABLED para las memorias sin paridad (lo más normal), y ponlo en ENABLED para verificar el bit de paridad de la memoria RAM. Las únicas memorias con paridad suelen estar en 486s o Pentium de marca como los IBM. TYPEMATIC RATE SETTING: ENABLED permite configurar la velocidad de repeticion y estados de espera del teclado. TYPEMATIC RATE (CHARS/SEC): Hay que poner el número máximo (30) para conseguir más caracteres por segundo. TYPEMATIC DELAY(MSEC): Hau qye poner el mínimo (250) para que el tiempo de espera sea el mínimo NUMERIC PROCESSOR: Para activar el coprocesador matemático. Desde los 486 DX la opción está obsoleta. CHIPSET SETUP Este es el apartado donde más difieren unas BIOS con otras, y es el campo más peligroso y donde quizás puede exprimirse más el rendimiento. Si es una BIOS de las antiguas aquí se incluirá la próxima opción de "PCI/PNP SETUP". No cambies estas opciones si no estás seguro, de hecho, verás que algunas opciones son tan complejas que ni siquiera nosotros las sabemos: USB FUNCION: Permite activar o desactivar el soporte USB (Universal Serial Bus). Ponlo en ENABLED si dispones de un sistema operativo que lo soporte, como Windows 95 OSR2 + USB Support, Windows 95 OSR2.1 o Windows 98. Si no, déjalo en DISABLED. USB LEGACY SUPPORT: Con ENABLED se tiene un teclado y ratón USB. Como lo normal hoy día es no tenerlo, déjalo en DISABLED. SDRAM CAS LATENCY: Ni idea de lo que es, y tiene las opciones 3, 2, AUTO. Ponlo en AUTO por si acaso. DRAM DATA INTEGRITY MODE: Tiene dos opciones: ECC (ponlo si lo soportan los módulos de memoria) y PARITY (ponlo si no lo soporta) 32

33 Página 33 de DRAM TIMING LATENCY: LOW, FAST, NORMAL. Es el tiempo que tarda el sistema en responder a las llamadas de la memoria. Prueba en FAST si no tienes problemas y no pierdes estabilidad. Suele traer también una opción AUTO. PIPE FUNCTION: Tampoco tenemos ni idea de lo que es, pero como la opción por defecto es ENABLED, pues déjalo ahí. GATED CLOCK Esto sirve para controlar el reloj interno del bus de datos de la memoria. Si está en ENABLED el reloj nunca para, cuando está en DISABLED se parará el reloj automáticamente si no hay activar en el bus de datos de la memoria. Pon la opción que quieras, no sabemos cuál es la mejor. GRAPHIC APERTURE SIZE: Decide el tamaño del búfer de frames programable. Esta región no debería sobrepasar al tamaño de RAM instalada, así que pon un número igual o menor. Cuanto mayor sea, mejor irá. VGA FRAME BUFFER. Pues eso, el rango de memoria del búfer de frame. Ponlo en ENABLED. VGA DATA MERGE: Unir las palabras lineales del ciclo del búfer de frames. Ni idea para qué sirve, por si acaso déjalo en DISABLED. PASSIVE RELEASE: Sirve para activar un mecanismo del puente sur cuando es PCI Master. La revisón PCI 2.1 requiere que este campo esté activado. Sólo para usuarios experimentados. Nosotros lo tenemos en ENABLED y parece que va bien, ponlo tú también sobre todo si tienes un dispositivo PCI 2.1 ISA MASTER LINE BUFFER: Desactiva o desactiva el búfear linear del ISA Master. Prueba a ponerlo en ENABLED. DELAY TRANSACTION: El tiempo para contactar con PCI 2.1. Échalo a suertes, pero por si acaso escoge DISABLED. AT BUS CLOCK: Sólo afecta al ISA. Esta opción se usa para selecciona las configuraciones I/O del reloj del bus. Las configuraciones posibles surgen de acuerdo con variar el reloj del sistema, por ejemplo, en un sistema con una velocidad de bus de 50 MHz, selecciona PCICLK/6 que podría resultar en un bus de velocidad de 8,33 MHz. No conviene sobrepasar este valor, como mucho 10 ó 12, ya que las tarjetas ISA funcionan a 8 MHz o menos. Por si esto es muy complicado, déjalo en AUTO. otras opciones: PIPE FUNCTION: La ejecucion de una instruccion de maquina se lleva en varias etapas (algunas maquinas pueden tener entre 5 y 9 etapas). Entonces cuando la CPU termina de ejecutar la primera etapa de una 33

34 Página 34 de instruccion comienza a ejecutar la segunda etapa, pero tambien empieza a ejecutar la primera etapa de la siguiente instruccion y asi sucesivamente. Claramente este metodo de ejecucion es mas rapido, que si se hicieran una de tras de otra conmpletamente. L2 CACHE POLICY: Prueba a poner el modo WRITE BACK, que es mejor que WRITE THRU DRAM READ/WRITE TIMING: Pon el valor mínimo si nuestra memoria es de alta velocidad (10-15 ns), para memoria EDO (x222) y para memoria NO EDO (x333) POWER MANAGEMENT SETUP Si tu placa es una ATX de las nuevas, tendrás muchas opciones, tan curiosas como encender el ordenador por una llamada de teléfono. General para todas las opciones: STANDBY MODE: El reloj de la CPU irá a una velocidad más baja, se desconectarán las disquetes y el disco duro, y el monitor se apagará. SUSPEND MODE: Todos los dispositivos excepto la CPU se apagarán. Cada modo de ahorro de energía tiene su respectivo contador. Cuando el contador llegue a cero, el equipo entrará en modo de ahorro de energía. Si se detecta alguna señal o evento durante la cuenta atrás, el contador vuelve al principio de nuevo. NOTA PARA USUARIOS DE WINDOWS 95 OSR2 y 98: Recomendamos poner los contadores en DISABLED para que no interfieran con los contadores de estos sistemas operativos, además de dejarlo todo en SUSPEND, pues SUSPEND incluye a STANDBY Vayamos ahora con las opciones propiamente dichas: POWER MANAGEMENT/APM: Pon esta opción en ENABLED para activar las funciones de administración de energía del chipset y APM (Administración Avanzada de Energía), especialmente si dispones de Windows 95 OSR2 o 98. Luego no digas que INICIO - SUSPENDER no te funciona! GREEN PC MONITOR POWER STATE: Sirve para apagar los monitores compatibles con Greep PC. Las opciones son OFF, STANDBY, SUSPEND y DISABLED. VIDEO POWER DOWN MODE. Para apagar el subsistema de vídeo para ahorar energía. Las opciones son STANDBY, SUSPEND y DISABLED. HARD DISK POWER DOWN MODE: Desconecta los discos duros. Las opciones son las tres del apartado anterior. STANDBY/SUSPEND TIMER UNIT y STANDBY TIMEOUT. Son los contadores que os hablábamos antes, el primero para el modo SUSPEND 34

35 Página 35 de y el segundo para el modo STANDBY. Ponlo en DISABLED para usar los del Windows. SYSTEM EVENT MONITOR BY... Trae unas cuantas opciones, prueba a ponerlas en YES. POWER BUTTON FUNCION: Explica el funcionamiento del botón de encendido externo. SOFT OFF es lo normal, apaga o enciente el ordenador. GREEN, en cambio, hace que el ordenador entre en Green Mode. RING RESUME FROM SOFT OFF: Cuando se activa, el sistema puede salir del modo inactivo por una señal de teléfono del MODEM. RTC ALARM RESUME: Decide una hora para que el ordenador salga del modo de suspensión automáticamente. Si no lo vas a usar ponlo en DISABLED, o, en el caso de que lo uses pero no quieras poner fecha, pon el DISABLED en Date. PCI/PnP SETUP Estas opciones sirven para arreglar nuestros queridos conflictos de hardware. En las BIOS más antiguas, cuando el Plug and Pray, ejem.. Play no estaba difundido, suelen estar incluidos en el apartado CHIPSET SETUP. PLUG AND PLAY AWARE O/S: Si tenemos un sistema operativo Plug and Play instalado (Windows 95/98) ponlo en YES. CLEAR NVRAM ON EVERY BOOT: Cuando se pone en YES, los datos de la NVRAM se borrar en cada proceso de arranque (boot). Recomendamos que lo pongas en NO. PCI LATENCY TIMER (PCI CLOCKS): Son los tiempos de retardo en acceder a los dispositivos PCI instalados en el respectivo bus. Las opciones son 32, 64, 96, 128, 160, 192, 224, 248. Prueba a ponerlo en el mínimo, 32. PCI VGA PALETTE SNOOP. Sirve para poder hacer que varias tarjetas VGA operen a la vez en diferentes buses (PCI e ISA), y que puedan extraer datos de la CPU simultáneamente. El bit 5 del registro de comandos del espacio de configuración del dispositivo PCI es el bit 0 del VGSA Palette Snoop (0 es DISABLED). Pon las opciones según lo siguiente: DISABLED: Los datos leídos y escritos por la CPU sólo se redireccionan a los registros de la paleta del PCI VGA. Es decir, que si tienes una tarjeta gráfica PCI o AGP tendrás que poner esto. ENABLED: Los datos leídos y escritos por la CPU se dirigen al registro de paleta del dispositivo PCI VGA y del ISA VGA, permitiendo que los registros de paleta de ambos dispositivos sean idénticos. La opción 35

36 Página 36 de también tiene que estar puesta en ENABLED si alguna tarjeta ISA instalada en el sistema requiere VGA Palette Snooping. OFFBOARD PCI IDE CARD: Especifica si existe un controlador PCI IDE externo en el ordenador. También debes especificar el slot de expansión PCI de la placa base cuando instalas la tarjeta controlñadora PCI IDE. Si se usa alguna controladora de este tipo, la controladora IDE de la placa base automátivamente se desactiva. Las opciones son DISABLED, AUTO, SLOT1, SLOT2, SLOT3, SLOT4, SLOT5 o SLOT6. Si se selecciona AUTO se determina el parámetro correcto, lo que fuera los IRQs 14 y 15 a un slot PCI del PCI local bus. Esto es necesario para soportar tarjetas PCI IDE no compatibles. OFFBOARD PCI IDE PRIMARY IRQ: Esta opción especifica la interrupción PCI usada por el canal IDE primario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD. OFFBOARD PCI IDE SECONDARY IRQ: Como el anterior, pero el canal secundario. Esta opción especifica la interrupción PCI usada por el canal IDE secundario en la controladora externa PCI IDE. Las configuraciones son DISABLED (ponlo si no tienes controladora IDE externa), HARDWIRED, INTA, INTB, INTC o INTD. ASSIGN IRQ TO PCI VGA: Pon esta opción en YES para asignar una IRQ al controlador VGA en el bus PCI. Las configuraciones son YES o NO. PCI SLOT 1/2/3/4 IRQ PRIORITY: Estas opciones especifican la prioridad IRQ paralos dispositivos PCI instalados en los slots de expansión PCI. Las configuraciones son AUTO, (IRQ) 3, 4, 5, 7, 9, 10 y 11, por orden de prioidad. Si tus dispositivos son Plug and Play, ponlo en AUTO. DMA CHANNEL 0/1/3/5/6/7. Te permie especificar el tipo de bus usado por cada canal DMA. Las opciones son PnP o ISA/EISA. Pon PnP si todos tus dispositivos son Plug and Play. IRQ 3/4/5/7/9/10/11/12/14/15 Estas opciones especifican al bus que la línea IRQ está usada. Estas opciones te permiten reservar IRQs para las tarjetas ISA, y determinan si se debería quitar una IRQ para cedérselas a esos dispositivos configurables por la BIOS. El conjunto de IRQs disponibles se determina leyendo el ESCD NVRAM. Si se deben quitar más IRQs del conjunto, el usuario debería usarlas para deservarlas a un ISA/EISA y configurarlo en él. El I/O se configura por la BIOS. Todas las IRQs usadas por el I/O en la placa están configurados como PCI/PnP. IRQ12 sólo aparece si la opción de Mouse Support está en DISABLED. IRQ14 y IRQ15 sólo estarán disponibles si el PCI IDE en la placa 36

37 Página 37 de estáactivado. Si todas los IRQs están puestos en ISA/EISA e IRQ14 y 15 están asignados al PCI IDE de la placa, IRQ9 todavía estará disponible para los dispositios PCI y PnP, debido a que al menos un IRQ debe estar disponible para ellos. Las opciones son ISA/EISA o PCI/PnP. RESUMEN: Si todos los dispositivos de vuestro equipo son Plug & Play, os recomendamos personalmente poner PCI/PnP en todas las IRQs. INTEGRATED PERIPHERALS SETUP Por fin, las últimas opciones. En BIOS antiguas estas opciones están incluidas en Chipset Setup ONBOARD FLOPPY CONTROLLER: Activa o desactiva la disquetera. Si tienes disquetera, ponlo en ENABLED. Onboard Serial Port 1/2 Estos campos configuran los puertos serie en la tarjeta. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados: 3F8/IRQ4: Dirección de puerto 3f8h, IRQ 4 2F8/IRQ3: Dirección de puerto 2f8h, IRQ 3 3E8/IRQ4: Dirección de puerto 3e8h, IRQ 4 2E8/IRQ3: Dirección de puerto 2e8h, IRQ 3 AUTO (recomendado): La BIOS asigna automáticamente direcciones de puerto y canales IRQ automáticamente DISABLED: Desactiva el puerto serie. Esto es especialmente últil si necesitamos la IRQ3 o la 4 para el módem. SERIAL PORT 2 MODE: Esta opción especifica el modo de operación para el segundo puerto serie. Sólo aparece si la opción ONBOARD SERIAL PORT 2 está puesta en AUTO o DISABLED. Las opciones son IR (infrarrojos) o NORMAL. IR TRANSMITTER: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. Las opciones son 1.6 us o 3/16 Baud. No hay opciones por defecto. IR DUPLEX MODE: Esta opción especifica el tipo de transmisión usada por los dispositivos infrarrojos conectados al segundo puerto serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. Las opciones son HALF o FULL (suponemos que es similar al full duplex o half duplex de las tarjetas de sonido). No hay opciones por defecto. IR RECEIVER POLARITY: Esta opción especifica el tipo de recepción osada por los dispositivos infrarrojos conectados al segundo puerto 37

38 Página 38 de serie. Esta opción sólo aparecerá si la opción ONBOARD SERIAL PORT 2 está en AUTO o DISABLED. No hay opciones por defecto. ONBOARD PARALLEL PORT: Este campo configura el puerto paralelo de la placa. Hay varias direcciones de puerto y canales IRQ que pueden ser seleccionados. 378/IRQ7: Dirección de puerto 378, IRQ 7 278/IRQ5: Dirección de puerto 278, IRQ 5 3BC/IRQ7: Dirección de puerto 3BC, IRQ 7 DISABLE: Desactiva el puerto paralelo PARALLEL PORT MODE: Esta opción especifica el modo del puerto paralelo. Las opciones son: NORMAL: Se usa el modo del puerto paralelo normal Bi-Dir: Usa este campo para soportar transferencias bidireccionales en el puerto paralelo. EPP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Enhanced Parallel Port (EPP). EPP usa las señales del puerto paralelo existente para ofrecer transferencia de datos bidireccional y asimétrica conducida por la unidad del host. ECP: El puerto paralelo puede ser usado con dispositivos que contemplan la especificación Extended Capabilites Port (ECP). ECP usa el protocolo DMA para ofrecer datos de transferencia hasta 2,5 Megabits por segundo. ECP ofrece comunicación bi-direccional simétrica. EPP VERSION: Especifica el número de versión usado para la especificación Enhanced Parallel Port. Esta opción sólo aparece si modo del puerto paralelo está puesto en EPP. Las configuraciones son 1.7 o 1.9. ECP/EPP (recomendado). Da igual que el dispositivo del puerto paralelo no soporte ni ECP ni EPP. Tú ponlo aquí. PARALLEL PORT DMA CHANNEL: Esta opción sólo aparece si modo del puerto paralelo está puesto en ECP. Esta opción configura el canal DMA usado por el puerto paralelo. Las opciones son DMA CHANNEL 0, 1 o 3 PARALLEL PORT IRQ: Esta opción especifica el IRQ usado por el puerto paralelo. Las opciones son AUTO (recomendado), (IRQ) 5 o (IRQ) 7. ONBOARD IDE: Esta opción especifica el canal IDE usado por el controlador IDE de la placa. Las opciones son ENABLED/AUTO/BOTH, PRIMARY, SECONDARY y DISABLED. A veces desactivar el segundo canal suele dar problemas porque Windows lo detecta y coloca uno de sus signos de interrogación amarillos. 38

39 Página 39 de SECCIÓN 2: Teoría de procesadores y memorias RAM. (TEÓRICA) Microprocesadores Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP de AMD. Además, están muy extendidos procesadores no tan novedosos, como los Pentium MMX y Pentium II/III de Intel y los chips de AMD (familias K6 y los primeros K7/Athlon). Tipos de conexión El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas: Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos: Socket 423 y 478. En ellos se insertan los nuevos Pentiums 4 de Intel. El primero hace referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología de 0,13 micras (Northwood). También hay algunos de 478 con núcleo Willamete. El tamaño de micras mencionado hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía. En el zócalo 478 también se insertan micros Celeron de Intel de ultimísima generación similares a los p4 pero más económicos Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon en sus versiones más nuevas: Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para configuraciones económicas) Athlon Thunderbird (versión normal, con un tamaño variable de la memoria caché, normalmente 256 Kb) 39

40 Página 40 de Athlon XP (con el núcleo Palomino fabricado en 0,18 micras o Thoroughbred fabricado en 0,13 micras) es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2. o con el nucleo T). Athlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede gestiona de forma diferente el acceso a la memoria a la hora de tener que compartirla con otros micros, lo cual le hace idóneo para configuraciones multiprocesador. Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel. Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día. Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros. Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base. En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC. La siguiente es una página en la que se encuentra gran cantidad de información sobre procesadores y diferentes partes del computador, es una excelente página y sirve para todas las personas que estén vinculadas con el ensamble de computadores, la única observación: está en inglés. 40

41 Página 41 de Valoración del rendimiento de un microprocesador El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un sistema de almacenamiento (disco duro) lento y escaso. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un Renault 4". Además del microprocesador, la velocidad general del sistema se verá muy influenciada debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Hoy día, hay que fijarse el propósito de la utilización del ordenador para elegir el correcto microprocesador. Por ejemplo, si se va a trabajar con los típicos programas de ofimática (Word, Excel...), un 486 con Windows 95 y 16 Mb. de RAM es más que suficiente, siempre y cuando utilicemos las versiones Windows 95, Word 95 y Excel 95 de cuando el 486 estaba vigente. Sin embargo, según sean más complejos y nuevos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento medianamente óptimo). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica) y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del presupuesto y las necesidades. No es aconsejable comprar tarjetas muy económicas, ya que el rendimiento puede ser hasta 10 veces inferior el de una tarjeta que cueste el doble. 41

42 Página 42 de La tabla fue extraída de El Pentium4 usando placa con chipset Intel 850E con memoria RAMBUS PC1066 y el Athlon XP usando placa con nforce2 y memoria DDR PC3200. El uso de los últimos micros que sobrepasan la mítica barrera del GHz se justifica por los nuevos sistemas operativos (el nuevo WindowsXP por ejemplo utiliza muchos recursos de la máquina, mucho más que otros Windows anteriores), los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real,tarea llevada completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de archivos, renderizado de dibujos en 3D... o el simple hecho de cargar un programa como Word o el mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en términos generales requieren. Athlon XP. El nuevo procesador de AMD es según nuestra opinión la mejor alternativa sin ninguna duda, sobre todo en relación 42

43 Página 43 de calidad/precio. Además, con la mayoría del software actual son los micros más rápidos en comparación con los Intel Pentium4 de Intel. A la hora de comprar un micro de este tipo, conviene prestar muchísima atención a la placa base (recomendamos chipsets KT333 y KT400 de Via, nforce2 de nvidia o chipsets de SiS de última generación), a la memoria RAM (siempre con memoria "DDR", olvida placas que utilicen aún SDRAM) y a la tarjeta gráfica especialmente si vas a usar el PC para jugar o para disfrutar de altas resoluciones con altos refrescos en un monitor alto de gama y de gran tamaño. Lo que hay en los paréntesis viene a significar: (Velocidad real en MHz del micro / Velocidad en Mhz del FSB, es decir, de la memoria RAM y otros componentes de la placa mediante la aplicación de divisores / Velocidad externa del micro, con la que se comunica el chipset de la placa base) Pentium4. Micro sobre el papel más avanzado que el AthlonXP pero que a la hora de la verdad viene a tener un rendimiento similar. El Pentium4 se caracteriza por su alto número de Mhz, pero fíjate que ejecuta 6 instrucciones por cada ciclo de reloj mientras que el AthlonXP que funciona a menos Mhz ejecuta 9 instrucciones. Normalmente, el micro de Intel de por ejemplo 2200 Mhz va a costar más que el AthlonXP equivalente, en este caso el (que en realidad funciona a 1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4 tiene ventajas como una menor generación de calor, por lo que tendremos en ese aspecto muchos menos problemas que el Athlon. En inconvenientes, principalmente el coste. Podríamos dar muchas más diferencias entre AMD e Intel, pero no tenemos la intención de iniciar ahora una discusión sobre el tema. Multiprocesador AMD, 2 Athlones MP. Mejor esto que un multiprocesador de 2 Pentiums4 Xeon, ya que el precio de esto último se va por las nubes. En caso de disponer de un presupuesto muy generoso puedes ir a este campo, siempre y cuando tengas un sistema operativo preparado para soportar 2 procesadores, tal como cualquier versión de Windows NT, Windows 2000, Windows XP SOLO VERSIÓN PROFESIONAL o por supuesto Linux / Unix y derivados. Con esto puedes distribuir las tareas, como liberar un procesador para que lo utilice sólo un determinado programa, o bien disfrutar del proceso en paralelo, ejecutar más trabajo en menos tiempo. Sólo hay algunos inconvenientes, como el hecho de tener que disponer de, lógicamente, una placa con dos zócalos preparada para dos micros, y de memoria 43

44 Página 44 de RAM ECC/registrada, que viene a costar 5 veces la memoria que ponemos en nuestros PCs normalmente. Soluciones más económicas, Duron de AMD, Celeron de Intel e incluso Pentium III de Intel. Recomendable si disponemos de muy poco presupuesto o queremos adquirir un segundo equipo para diversas funciones, como por ejemplo hacer un servidor para administrar impresoras, un FTP o páginas Web. Memorias Tradicionalmente se ha hablado de dos memorias principales existentes en las computadoras personales: la memoria ROM (Read Only Memory) y la memoria RAM (Random Acces Memory). De la primera se ha dicho que es una área de almacenamiento permanente e 'inmodificable' o sea de lectura solamente. Y de la segunda que es el área de trabajo real del PC. La ROM en realidad es una memoria programable hasta cierto punto: permite personalizar mediante un subprograma almacenado en ella (EL SETUP), las funciones del PC para adaptarlo a las diferentes clases de componentes con que se puede armar un PC. El BIOS que es el otro nombre genérico con que se conoce a la ROM tiene adicionalmente un conjunto de instrucciones que establecen un comportamiento especifico entre los circuitos de la maquina y el sistema operativo. Estas instrucciones grabadas por el fabricante, se modifican o programan solo mediante procedimientos avanzados: por software de actualización o con máquinas de reprogramación de Bios.... La RAM en cambio, es una AREA DE TRABAJO vacía. Un espacio que se crea a discreción del integrador de equipos para construir un PC con determinado espacio (128, 256, 512 megabytes, etc.). Ello es posible insertando MODULOS de memoria en los bancos de memoria que poseen las motherboards o placas base. Para entender que es la memoria, nada mejor que usar una analogía: imagina un área en la cual hemos trazado líneas verticales y horizontales para hacer una retícula. Si a cada columna y a cada fila de cuadritos le asignamos una letra y número para identificarlos en forma de coordenadas, podemos luego identificar una posición de una celda determinada por la letra de la columna y el numero de la fila (tal como sucede con las celdas de las Hojas de calculo tipo Excel). Eso, para entenderlo gráficamente. Pero matemáticamente hablando, en la Ram cada celda tiene una ubicación o nombre en una nomenclatura 44

45 Página 45 de aceptada por la comunidad científica: el sistema hexadecimal. Cada deposito de un dato en la memoria (operando, resultado, etc.) se ubica por una dirección en hexadecimal (Windows 9x revela las direcciones con problemas cuando se paraliza lanzando sus pantallas azules). Hemos de distinguir entre la memoria principal, la memoria caché, y la memoria de video. La primera se emplea para poder ejecutar mayores y más programas al mismo tiempo, la segunda para acelerar los procesos de la C.P.U, y la tercera nos permite visualizar modos de mayor resolución y con más colores en el monitor, así como almacenar más texturas en tarjetas 3D. Memoria caché: La memoria caché de segundo nivel (L2) es una memoria muy rápida llamada SRAM (RAM estática) que se coloca entre la memoria principal y la CPU y que almacena los últimos datos transferidos. El procesador, como en los casos de caché de disco, primero consulta a dicha memoria intermedia para ver si la información que busca está allí, en caso afirmativo podemos trabajar con ella sin tener que esperar a la más lenta memoria principal. Dicha memoria solo se usa como caché debido a que su fabricación es muy cara y se emplea en módulos de poca capacidad como 256 ó 512 Kb. No hay que confundir nunca la memoria de segundo nivel con la de primer nivel (L1) ya que esta suele ir integrada dentro del procesador, y suele ser de menor capacidad, aunque evidentemente dispone de un acceso mucho más rápido por parte de la CPU. Su implementación en la placa base puede ser o bien colocar los chips directamente en ella, mediante zócalos o con soldadura directa, o en unos módulos parecidos a los SIMM's llamados COAST, de más fácil actualización. Memoria principal: La primera distinción que debemos realizar es el formato físico, cuyo parámetro más importante es el número de contactos (ó pins). Se encuentran de 30 contactos (8 bits) y que miden unos 9 cm., 72 (32 bits) y con una longitud de casi 45

46 Página 46 de 11cm., y 168 (64 bits) y casi 13 cm. Las dos primeras reciben el nombre de SIMM y funcionan a 5V, y la última es conocida como DIMM y puede trabajar a 3,3V ó a 5V, dependiendo del tipo. La siguiente distinción por orden de importancia sería el tipo, en orden a su antigüedad, esta puede ser DRAM, Fast Page (o FPM), EDO, SDRAM, DDR o Rambus. Es importante consultar el manual de la placa base para saber que tipos soporta. El tipo SDRAM sólo se encuentra en formato DIMM, y es la que más dolores de cabeza nos puede causar, ya que puede ser Buffered o Unbuffered, y trabajar a 3,3 o a 5V. Además, no todas las placas base soportan todas estas combinaciones, algunas por ejemplo sólo soportan módulos de 3,3V. Afortunadamente, hay una muesca en estas memorias que impide conectar un módulo en un zócalo para el que no ha sido diseñado. Otra característica importante es la paridad, esta característica actualmente está en desuso, pero puede ser fuente de problemas, ya que algunas placas no soportan esta característica, mientras otras (pocas) sólo funcionan con ella. Saber si un módulo posee o no paridad es relativamente fácil, basta con contar el número de chips (circuitos integrados) que hay en el circuito impreso. Si es impar entonces es memoria con paridad. Por último nos queda comentar el tiempo de acceso, éste cuanto más pequeño sea, mejor. Si hablamos de módulos SIMM, dependiendo de su antigüedad, son normales tiempos de 80, 70, 60 ó incluso 50 ns. En las memorias DIMM SDRAM, suelen ser habituales tiempos de alrededor de 10 ns. También hay que entender que el bus de datos del procesador debe coincidir con el de la memoria, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado. Por tanto el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad. Arquitectura de la memoria. Al igual que el microprocesador, la memoria esta formada internamente por componentes electrónicos miniaturizados. En ella abundan los capacitores y circuitos flip-flop. Las primeras Ram trabajaban con circuitos que requerían refresco permanente (circulación de electricidad) para no perder la información que se depositaba en ellas, por eso se les dio el nombre de DRAM (Dynamic Random Acces Memory). En la evolución lógica posterior, se implementó el uso de circuitos flip-flop (circuitos transistorizados que 46

47 Página 47 de luego de recibir una señal eléctrica, conservan la información sin refresco adicional). Estos dieron a la postre la aparición de las memorias caché (mas costosas y más rápidas) conocidas también como SRAM (Static Random Acces Memory). Electrónicamente la Ram es un conjunto formado por millones de conmutadores que cambian su estado constantemente de abierto (0) a cerrado (1) para generar la logica binaria. Esos circuitos quedan sin energía eléctrica cuando se apaga la computadora lo que equivale a perder toda la información depositada si no se traslada a un dispositivo de almacenamiento permanente como el disco duro, un CD, diskette o cinta magnética.... La velocidad con que los circuitos de la Ram permiten manipular los datos que se colocan en ella se conoce como su velocidad de trabajo y se mide en nanosegundos (mil millonésima de un segundo). Mientras menos nanosegundos utilice la ram en un movimiento de dato, más rápida será. Las velocidades que la industria ha alcanzado son impresionantes: 2 nanosegundos en Ram especial y un promedio de 4-6 nanosegundos en Ram generica.... Módulos SIMM Estos módulos (Single In-line Memory Module) pueden ser de 30 o 72 contactos. Los módulos de 30 contactos eran utilizados en los tiempos de los 386 y 486 para equipar a estas plataformas. Más tarde aparecieron los de 72 contactos, algo más grandes y con capacidad de integrar más chips de memoria. Aunque se empezaron a utilizar con los últimos procesadores 486, vivieron su verdadero apogeo con los Pentium. En cualquier caso, la velocidad de respuesta de estos módulos no era inferior a los 50 o 60 nanosegundos (ns). Sobre la instalación de estos módulos hemos de tener presente que los de 30 contactos debían ser instalados de cuatro en cuatro en la mayor parte de los casos. En el caso de los de 72 contactos, éstos debían ser instalados a pares. Como es lógico, en los dos casos es necesario que los módulos tengan el mismo tamaño y, a ser posible, igual marca y modelo. La inserción de estos módulos es muy sencilla, entrando en los bancos de memoria en un ángulo de unos 45 grados, tras lo que sólo hay que empujar el módulo y colocarlo en posición vertical. En cualquiera de los dos casos, sólo hemos de tener presente el respetar que la pestaña lateral se acople en el banco elegido. 47

48 Página 48 de Clases de memoria. La clasificación de la memoria presenta el hecho histórico de que usualmente hay una categoría vigente según la época. Revisando la historia, la memoria de los PCs ha evolucionado así:... FAST PAGE MODE (FPM) La primera memoria utilizada a nivel masivo (en PCs). Fue una memoria de tipo DRAM (Dynamic Random Acces Memory). Fue una memoria muy popular, ya que era la que se incluía en los antiguos 386, 486 y primeros Pentium. Alcanza velocidades de hasta 60 nanosegundos. La podemos encontrar en los veteranos módulos SIMM de 30 contactos y los posteriores de EXTENDED DATA OUT (EDO). la memoria EDO, a diferencia de la FPM, que sólo podía acceder a un solo byte al tiempo, permite mover un bloque completo de memoria a la memoria caché del sistema, mejorando así las prestaciones globales. Gracias a una mayor calidad, se alcanzaron velocidades de hasta 45 nanosegundos. Podemos encontrarla en los Pentium, Pentium Pro y los primeros Pentium II. Se presentan en módulos SIMM de 72 contactos y en los primeros DIMM de 168 contactos, funcionando a 5 y 3,3 voltios. Surge en 1995 y es 10 a 15% más veloz que FPM, se caracterizó porque los accesos de escritura y lectura en la memoria se podían hacer en direcciones secuenciales o vecinas, en contraposición a su anterior que lo hacia en modo paginado (todas las columnas de una fila, luego la siguiente fila, etc.)..... BEDO (Burst Extended Data Output): diseñada originalmente para la familia de chipsets HX, permite transferir datos al procesador en cada ciclo de reloj, aunque no de forma continuada, sino a ráfagas (burst), reduciendo los tiempos de espera del procesador, aunque sin conseguir eliminarlos del todo. SYNCHRONOUS DRAM (SDRAM) La primera memoria que trabaja sincronizando su tiempo de trabajo con los ciclos de reloj del sistema, a fin de que la CPU no tenga que tener ciclos de espera para recibir datos de la Ram. Los chips se dividen en dos bloques o celdas en donde un bloque recibe los datos en tanto que otro los procesa a la siguiente dirección de memoria. Eso permite que los siguientes caracteres adyacentes al primero se registren a velocidades de 10 nanosegundos (el primero se registra alrededor de los 60 nanosegundos). Las memorias conocidas como PC 100, PC133, PC 200, etc. pertenecen a esta clasificación pues se las instala de acuerdo al bus que utiliza la 48

49 Página 49 de placa base. Se presenta en forma de módulos con 168 contactos o pines (módulos DIMM).... DOUBLE DATA RATE SYNCHRONOUS DRAM (DDR SDRAM) Memoria moderna cuya tecnología transmite al doble de la velocidad del bus del sistema. Se presenta en módulos con 184 contactos o pines y se presenta en forma de módulos con 184 contactos o pines. A diferencia de la memoria SDRAM que soporta una sola operación de memoria (tal como una lectura o una escritura de memoria) por ciclo de reloj- la memoria DDR soporta dos operaciones de memoria por ciclo de reloj- y al hacer esto, proporciona un doble desempeño. Y dado que SDRAM solamente puede hacer una operación de datos por ciclo de reloj, se clasifica como una tecnología de una sola velocidad de datos en comparación con las transferencias duales de datos soportadas por DDR, por lo que esta recibe el nombre "Velocidad doble de datos" ("Velocidad de datos" se refiere a la velocidad efectiva de reloj para los datos). Haciendo otra comparación, la memoria PC133 SDRAM tiene una velocidad de reloj de 133MHz y una velocidad de datos correspondiente de 133 MHz (133 MHz x 1 operación de datos por ciclo de reloj) en tanto que una DDR de 333 MHz, con un reloj de 166 MHz, tiene una velocidad de datos de 333 MHz (166 MHz x 2 operaciones de datos por ciclo de reloj). DIRECT RAMBUS. Creada por Rambus Inc, es una versión avanzada de la memoria DRAM. Se conoce también como RIMM, marca que le pertenece a Rambus. El rendimiento de la memoria Rambus es excepcional (llega a rangos de 800 MHz de transferencia) a cambio de ser muy costosa. No ha tenido difusión en el mercado masivo precisamente por el costo. Se presenta en módulos parecidos a los DIMM pero sus chips están cubiertos por un disipador de calor metálico que cubre todo el modulo. Dado su costo, predomina en el ambiente exclusivo de los servidores. Este tipo de memoria, apoyado por Intel y creado por la empresa Rambus, exige a los fabricantes el pago de royalties en concepto de uso, razón por la cual, salvo Intel, el resto de empresas del sector se decantan por la utilización de otras memorias. Estos módulos de memoria se caracterizan por estar cubiertos con una protección metálica, generalmente de aluminio, que también ayuda a su correcta refrigeración.. 49

50 Página 50 de... Memoria SRAM Representa la abreviatura de Static Random Access Memory y es la alternativa a la DRAM. No precisa de tanta electricidad como la anterior para su refresco y movimiento de las direcciones de memoria, por lo que, en resumidas cuentas, funciona más rápida. Sin embargo, tiene un elevado precio, por lo que de momento se reserva para ser utilizada en la memoria caché de procesadores y placas base, cuyo tamaño suele ser muy reducido, comparado con la RAM del sistema. Así, y atendiendo a la utilización de la SRAM como memoria caché de nuestros sistemas informáticos, tenemos tres tipos: Async SRAM: la memoria caché de los antiguos 386, 486 y primeros Pentium, asíncrona y con velocidades entre 20 y 12 nanosegundos. Sync SRAM: es la siguiente generación, capaz de sincronizarse con el procesador y con una velocidad entre 12 y 8,5 nanosegundos. Muy utilizada en sistemas a 66 MHz de bus. Pipelined SRAM: se sincroniza igualmente con el procesador. Tarda en cargar los datos más que la anterior, aunque una vez cargados, accede a ellos con más rapidez. Opera a velocidades entre 8 y 4,5 nanosegundos. Memoria Tag RAM Este tipo de memoria almacena las direcciones de memoria de cada uno de los datos de la DRAM almacenados en la memoria caché del sistema. Así, si el procesador requiere un dato y encuentra su dirección en la Tag RAM, va a buscarlo inmediatamente a la caché, lo que agiliza el proceso. Memoria VRAM Esta es la memoria que utiliza nuestro controlador gráfico para poder manejar toda la información visual que le manda la CPU del sistema, y podría ser incluida dentro de la categoría de Peripheral RAM. La principal característica de esta clase de memoria es que es accesible de forma simultánea por dos dispositivos. De esta manera es posible que la CPU grabe información en ella, mientras se leen los datos que serán visualizados en el monitor en cada momento. Paridad de módulos Seguro que más de uno se habrá planteado el porqué de la necesidad de hacer coincidir a pares ciertos módulos de memoria. La explicación es que cada módulo es capaz de devolver cierto número de bits de golpe y 50

51 Página 51 de éste ha de completar el ancho de banda del procesador. Es decir, si contamos con un procesador Pentium con un bus de datos de 32 bits, necesitaremos un sistema de memoria capaz de llenar este ancho de banda. Por ello, si cada módulo de 72 contactos proporciona 16 bits de una sola vez, precisaremos dos de estos módulos. Algo extrapolable a los módulos de 30 contactos, que con 4 bits cada uno, y para procesadores de 16 bits, necesitaban cuatro. Los actuales DIMM son capaces de proporcionar los 32 bits de golpe, por lo que pueden instalarse individualmente. Son de 184 pines, tienen el mismo tamaño que las DIMM INSTALACION DE LA MEMORIA RAM. El procedimiento para aumentar su capacidad (adicionando mas módulos) asi como para reemplazarla (cuando un modulo de daña) demanda los mismos detalles: 1. Hay que ubicar los bancos de memoria en la motherboard y empezar a colocarlos por el banco 1 preferiblemente. 2. Hay que insertar los módulos guiándose por sus muescas. 3. Deben quedar bien insertados y asegurados. 4. Se debe evitar la instalación mezclada de módulos para distintos buses (como PC100 y PC 133, para evitar conflictos). 5. La capacidad de los módulos puede combinarse (Ej: un módulo de 64 MB + un modulo de 128 MB). Errores de memoria. Considerando que el trabajo que se realiza en la memoria es sumamente delicado, se han creado procedimientos de control de errores a fin de poder confiar en los resultados que muestran las máquinas. Los dos mas utilizados son el control de paridad y el metodo ECC (Error Correction Code). Para entender el por que hay que tener implementados sistemas de verificación, hay que recordar dos factores que intervienen en el trabajo de la Ram: 1. La circuiteria electrónica de la memoria utiliza pequeños capacitores (almacenes de electricidad) afectos a interferencias, que deben recibir permanente refresco y 2. El Software (en el que se cuentan los programas de aplicación, los drivers o controladores, los virus, los errores de lectura en disco, etc.) puede tener error de código. Afortunadamente ambos escollos continúan siendo superados tecnológicamente por lo que cada vez menos integradores de PCs utilizan Ram sin la función de integridad de datos. 51

52 Página 52 de 52

53 Página 53 de OBJETIVOS MÓDULO # 6 y 7: PC 586 y AMD K6 Discos Duros Conocer las opciones de configuración básicas de la BIOS a través del programa SETUP. Proporcionar la teoría sobre discos duros y las tecnologías de discos. SECCIÓN 1: Práctica ensamble equipo 586 y K6. (PRÁCTICA) DISCOS DUROS Los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último). Asimismo estos cilindros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como sectores se identifican con una serie de números que se les asignan, empezando por el 1, pues el numero 0 de cada cilindro se reserva para propósitos de identificación mas que para almacenamiento de datos. Estos, escritos/leídos en el disco, deben ajustarse al tamaño fijado del almacenamiento de los sectores. Habitualmente, los sistemas de disco duro contienen más de una unidad en su interior, por lo que el número de caras puede ser más de 2. Estas se identifican con un número, siendo el 0 para la primera. En general su organización es igual a los disquetes. La capacidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de sectores por pista, al total por el número de bytes por sector. Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda. ara leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición 53

54 Página 54 de sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente. Los componentes físicos de una unidad de disco duro CABEZA DE LECTURA / ESCRITURA: Es la parte de la unidad de disco que escribe y lee los datos del disco. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco. DISCO: Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control. EJE: Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco. IMPULSOR DE CABEZA: Es el mecanismo que mueve las cabezas de lectura / escritura radialmente a través de la superficie de los platos de la unidad de disco. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros: 54

55 Página 55 de CILINDRO: Es una pila tridimensional de pistas verticales de los múltiples platos. El número de cilindros de un disco corresponde al número de posiciones diferentes en las cuales las cabezas de lectura/escritura pueden moverse. CLUSTER: Es un grupo de sectores que es la unidad más pequeña de almacenamiento reconocida por el DOS. Normalmente 4 sectores de 512 bytes constituyen un Cluster (racimo), y uno o más Cluster forman una pista. PISTA: Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster. SECTOR: Es la unidad básica de almacenamiento de datos sobre discos duros. En la mayoría de los discos duros los sectores son de 512 Bytes cada uno, cuatro sectores constituyen un Cluster. Ha habido muchos cambios en el campo de los discos duros. De más antiguos del tamaño de una caja de zapatos y de capacidades ridículas (vistas desde hoy) hasta discos duros compactos y reducidos con capacidades 400 veces mayores. Estructura interna de un disco duro Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad. Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran 55

56 Página 56 de flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1). La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar. Velocidad de lectura del Disco Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal. Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta rpm. Interfaces: ST506, MFM y RLL Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera. Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se 56

57 Página 57 de conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora. La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm. En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL ESDI Con esta interfaz, Enhanced Small Devices Interface (interfaz mejorada para dispositivos pequeños), se daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro o revolución del disco. No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que detallamos a continuación. El estándar IDE Integrated Drive Electronics, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se 57

58 Página 58 de eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo. IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado Modos de Transferencia. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado. No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software ( estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado El papel de la BIOS ) no solía exceder de los 528 Megas. Se imponía una mejora, y quién mejor para llevarla a cabo que la compañía que lo creó? Enhanced IDE La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas. Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado 58

59 Página 59 de Otros términos ). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio. Modos de transferencia Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo. Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base. Otros términos EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA. Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser picos de transferencia. 59

60 Página 60 de Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA. MODO DE TRANSFERENCIA PIO 0 PIO 1 y 2 PIO 3 PIO 4 MultiWord DMA 1 MultiWord DMA 2 Ultra DMA 33 Ultra DMA 66 MB DE TRANSFERENCIA (PICOS) 2/3 Mb/s 4 Mb/s 11 Mb/s 16 Mb/s 13 Mb/s 16,6 Mb/s 33 Mb/s 66 Mb/s Buffer y caché Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible. Más de 520 Megas... por qué no? Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar un disco duro de alta 60

61 Página 61 de capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada... por ambos! La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y número de cilindros (notación CHS); el estándar IDE soporte cilindros, 16 cabezas y 255 sectores por pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas. Por su parte, la BIOS del PC soporta cilindros, 255 cabezas y 63 sectores; ya que ambos deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva, que será de cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un total de 528 Megas. Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a todo el espacio disponible del disco duro del ordenador. Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran engañar al sistema y obtener el mismo efecto que el LBA por BIOS. La norma SCSI Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve paseo por sus características. La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia 61

62 Página 62 de controladora) en el equipo; y las ventajas no se reducen al número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma. Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema. Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus diferentes modalidades. Norma SCSI Ancho Bus Megas/segundo SCSI-1 8 bits 3 Megas/s SCSI-2 8 bits 5 Megas/s Fast SCSI-2 8 bits 10 Megas/s Fast/Wide SCSI-2 16 bits 20 Megas/s Ultra SCSI 8/16 bits 20/40 Megas/s Ultra2 SCSI LVD 8/16 bits 40/80 Megas/s Otras formas de usar un disco duro Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico. Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la 62

63 Página 63 de integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman las llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta. Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos intalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo. Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE. 63

64 Página 64 de Capacidad Tasa de transferencia Tiempo de acceso MFM RLL ESDI IDE EIDE SCSI-2 40 Mb 5 Mg/s = 0,625 Mb/s 65 ms 120 Mb 7,5 (Mg/s = 0,9375 Mb/s 40 mb 630 Mb 1 Mb/s 15 mb 520 Mb 11 Mb/s 14 ms 16 Mb/s ULTRA SCSI??? 33 Mb/s con UDMA Mb/s con UDMA ms 10 Mb/s y hasta 20 Mb/s en controladoras versión Fast 40 Mb/s ULTRA2 SCSI LVD 80 Mb/s 10 ms 9 ms? Notas: capacidad indica la cantidad máxima (en Megabytes) que puede controlar el sistema. Tasa de transferencia expresada en Megabits segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso expresado en milisegundos. Puede variar según fabricantes. Un poco de historia Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un calendario muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. A 64

65 Página 65 de finales de 1999, se instalan discos de 8, 12 y 15 Gb llegando hoy (año2005) a valores de hasta 250GB y más. En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá frenada por un disco IDE estándar y viceversa. Por otro lado, la relación precio/megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio. Traslaciones y Managers de disco A nadie le importa cuál es la geometría Real de un disco. De hecho, incluso el número de sectores por pista es variable --hay más sectores por pista conforme nos acercamos al borde exterior del disco-- por lo que no hay un número de sectores por pista `verdadero'. Para el usuario resulta más conveniente considerar un disco como una simple serie lineal de sectores numerados como 0, 1,..., y dejar a la controladora el trabajo de encontrar en qué lugar del disco reside un sector dado. Esta numeración lineal se conoce como LBA. Las direcciones lineales correspondientes a (c,h,s: c=cilindros h=cabezas s=sectores) los parámetros lógicos. Todas las controladoras SCSI hablan LBA, junto con algunas IDE. Si la BIOS convierte los (c,h,s) de 24 bits a LBA y le pasa eso a una controladora que entienda LBA, entonces vuelven a ser accesibles GB. No es suficiente para todos los discos, pero no deja de ser constituir una mejora. Téngase en cuenta que que aquí CHS, tal y como los usa la BIOS, no tiene nada que ver con la `realidad'. Algo similar funciona cuando la controladora no habla'' LBA, pero la BIOS sí sabe hacer la traslación. (En el setup esto se suele indicar como large''.) La BIOS presentará una geometría (C',H',S') al sistema operativo, usando (C,H,S) para hablar con la controladora del disco. Normalmente S = S', C' = C/N y H' = H*N, donde N es la menor potencia de dos que asegura que C' <= 1024 (a fin de que se malgaste 65

66 Página 66 de la menor capacidad posible al redondear en C' = C/N). Nuevamente, esto nos proporciona acceso a GB. Si la BIOS no sabe nada acerca de `LBA' o `Large', podemos recurrir a ciertas soluciones software. Los Disk Managers o Gestores de Disco como OnTrack o EZ-Drive reemplazan las rutinas de gestión de disco por otras suyas. Esto se lleva a cabo normalmente haciendo residir el código del gestor de disco en el MBR y sectores subsecuentes (OnTrack llama a este código DDO: Dynamic Drive Overlay, algo así como Superposición Dinámica de Disco, de modo que sea arrancado antes que cualquier otro sistema operativo. Esa es la razón por la que se pueden tener problemas arrancando desde disquete cuando se ha instalado un Gestor de Disco. Esto no significa que no pueda hacerse de modo seguro; los gestores suelen proveer utilidades para hacer disquetes especiales de arranque El efecto es más o menos el mismo que cuando se hacen traslaciones vía BIOS, pero --especialmente cuando haya distintos sistemas operativos en el mismo disco-- con la salvedad de que pueden causar bastantes problemas. MÓDULO # 8: Dispositivos de almacenamiento Periféricos comunes OBJETIVOS Conectar diferentes dispositivos de almacenamiento y conocer su configuración a través del Setup. Proporcionar la teoría sobre diferentes periféricos comunes, y tarjetas internas. SECCIÓN 1: Práctica ensamble equipo K6 completo. (PRÁCTICA) LA TARJETA DE SONIDO Antes de 1984 las computadoras no producían mas que el sonido de los ventiladores internos y el de las disqueteras. Pero, corre el rumor que allá por 1984, un miembro del primer grupo desarrollador de la Macintosh le propuso a Steve Jobs incluir en la computadora un chip que permitiera la gestión del sonido (PC Speaker) con un presupuesto de menos de tres dólares por máquina. Esto ocurrió un viernes y Steve Jobs respondió que sí. El lunes por la mañana el prototipo estaba construido y libre de bugs, las computadoras Macintosh incorporarían 66

67 Página 67 de sonido. Gracias a la capacidad de ese trabajador anónimo, desde junio de 1984 es una realidad. Y esa realidad ha evolucionado tanto que en este momento una computadora Macintosh, o cualquier computadora, puede grabar y reproducir audio con calidad profesional. En términos físicos la tarjeta de sonido es un placa que se conecta a la placa principal (mainboard) a través de slots que pueden ser de tecnología PCI, ISA, VESA, etc.(según la tecnología de la tarjeta); pero actualmente las tarjetas de sonido están adheridas al mainborad, lo cual da un tiempo de acceso más rápido. Las tarjetas de sonidos más antiguas trabajan con una longitud de 8 bits, las cuales se han ido descartando con la presencia de tarjetas con longitud de 16 bits y hasta 32 bits en audio profesional, las cuales ofrecen una mayor definición del sonido reproducido y grabado. Síntesis de sonidos con una tarjeta de sonidos. Cuando una tarjeta crea un sonido y no lo reproduce de una grabación, se dice que un sonido es sintetizado. La tarjeta actúa como un instrumento musical, por ejemplo una guitarra. Durante varios años, las tarjetas de sonido crearon efectos musicales por medio de una tecnología simple denominada síntesis FM; los sonidos creados de esta manera no son iguales a los que se crean con un instrumento musical verdadero y mucho menos pueden compararse con una guitarra de verdad. Al jugar con las frecuencias (cambiar la velocidad y mezclar los tonos) la tarjeta puede crear sonidos que más o menos se asemejan a instrumentos musicales. Aun así, es notorio que los instrumentos son producidos por una computadora. La tecnología wavetable es superior a la síntesis FM, pues las tarjetas de sonido ya no crean música con tonos computarizados. Más bien, estas tarjetas de sonido buscan el instrumento deseado en una tabla (una selección integrada con grabaciones reales) y crean el sonido con base en la muestra. Las mejores tarjetas wavetable almacenan todos los sonidos en sus propios chips de Sólo lectura (ROM) para un acceso más fácil. Otras tarjetas cuentan con algunos sonidos en su memoria ROM y eligen el 67

68 Página 68 de resto de ellos sobre la marcha desde el disco dura o la RAM. Aun cuando esto puede originar problemas a los usuarios que cuenten sin espacio limitado en sus discos duros, dichas tarjetas son por lo general de mejor calidad. Reproducción y grabación de sonidos con una tarjeta de sonidos. Además de simular el sonido de un instrumento, las tarjetas de sonido pueden grabar el sonido de un instrumento verdadero. En realidad, las tarjetas actúan como una grabadora de cinta computarizada. Para grabar datos, la computadora los convierte en números digitales y el sonido no es la excepción. Cuando una onda de sonido fluye a través del cable de conexión, la computadora mide su amplitud a intervalos regulares de tiempo y convierte la onda análoga en muestras, las cuales se traducen en datos digitales que son grabados en un archivo. Este proceso se conoce como conversión análoga a digital. Para reproducir el sonido almacenado, la computadora busca la medición realizada y vuelve a crear dicho sonido. Es decir, convierte los niveles a los que corresponde el número digital guardado a niveles de voltaje de una señal eléctrica continua, la cual viaja a través del cable hacia los audífonos sin ser amplificada. La precisión que necesita la computadora depende si la longitud es de 8 bits o de 16 bits. Cuando se graba por medio de una tarjeta de 8 bits, la computadora utiliza una especie de regla para medir y divide el sonido en 256 posibles longitudes. En cambio, cuando se graba por medio de una tarjeta de 16 bits, la computadora utiliza una regla más precisa, esta vez divide el sonido en 65,536 posibles longitudes. Como es obvio, una tarjeta de 16 bits realiza un trabajo de medición mucho más preciso y esto da como resultado un mejor sonido al momento de reproducirlo. Debido a que las ondas de sonido se mueven de manera constante, entonces la computadora las mide con cierta frecuencia. Es aquí donde hacen su aparición los Kilohertz (KHz). Si la computadora mide la amplitud de las onda 11,000 veces por segundo, habrá grabado un sonido a 11,000 Hz. Si la medición se realiza 44,000 veces por segundo, el 68

69 Página 69 de sonido se habrá grabado en 44,000 Hz. Este índice de grabación se conoce como frecuencia o tasa de muestreo. Un aumento en la tasa de muestreo o en la definición implica una mayor demanda de rendimiento y almacenamiento. Por ejemplo, los datos de 16 bits contienen el doble de información que los de ocho bits; una tasa de muestreo de 44.1 KHz requiere el doble que una de KHz; el sonido estereofónico requiere el doble del monaural. Esto hace que las necesidades de rendimiento y almacenamiento vayan desde aproximadamente 1.25 Mb por minuto en el caso de audio monaural de 8 bits a KHz hasta 10 Mb por minuto para el audio estereofónico de 16 bits a 44.1 KHz. El puerto MIDI Este puerto es igual al puerto de juegos pero sirve para interconectar instrumentos musicales de acuerdo a un estándar. Veamos los orígenes de este estándar que revolucionó en su momento y sigue siendo una de los principales herramientas en la tecnología musical actual. Hasta 1983, la mayoría de los instrumentos musicales electrónicos avanzados sólo podían comunicarse con productos del mismo fabricante. Aunque había muchos enfoques de sistemas patentados disponibles, los sistemas sinérgicos de música electrónica infinitamente expansibles seguían siendo un sueño. La inclusión de un microprocesador en los instrumentos preparó el camino para MIDI (Interfaz digital de instrumento musical), un protocolo de comunicación en serie diseñado específicamente para los dispositivos de música electrónica. Un grupo conjunto de fabricantes de instrumentos musicales electrónicos, apropiadamente llamado MIDI Manufacturers Association (MMA) es el responsable del desarrollo y evolución de MIDI. MIDI revolucionó la industria de la grabación prácticamente de la noche a la mañana al hacer posible un control central sobre muchos instrumentos, como si se tratara de una orquesta electrónica. Pocas grabaciones de música pop se realizan sin ella. MIDI se encuentra ahora en casi todos los instrumentos musicales electrónicos y ha preparado el camino para un especie de aldea global de la música electrónica. Además, hay interfaces y software MIDI disponibles para casi todas las computadoras personales. Nociones generales de MIDI. MIDI no encarna el audio digital, sino que contiene instrucciones que controlan cómo y cuando los dispositivos (como los sintetizadores digitales) producen sonido. Podemos considerar a MIDI como una especie de PostScript para la música. PostScript describe objetos, en vez de vaciarlos en un mapa de bits. MIDI describe los elementos de la 69

70 Página 70 de ejecución musical, en vez de vaciarlos en los flujos de bits del audio digital. Al igual que PostScript, MIDI es independiente del dispositivo y de la definición. Una ejecución MIDI se puede orquestar en cualquier equipo compatible con MIDI, y la calidad del sonido será la del dispositivo de salida. En su forma más simple, la conexión de la salida MIDI de un instrumento (el maestro) a la entrada MIDI de otro (un esclavo) permite al ejecutante controlar el esclavo desde el maestro. Así, si se toca un DO medio en el maestro, el esclavo también producirá un DO medio. La ventaja inmediata es la superposición de timbres de dos o más instrumentos. La potencia de MIDI radica en su capacidad para enviar y recibir información de ejecución en cualquiera de 16 canales distintos y separados. El concepto de canal es similar al que manejamos en el caso de transmisiones de televisión y televisores. Aunque el cable o antena en nuestro hogar lleva simultáneamente transmisiones de muchos canales distintos, el receptor de televisión toma sólo la información del canal que seleccionamos. Lo mismo sucede con MIDI; aunque es posible que el conducto MIDI lleve muchos canales de datos de ejecución al mismo tiempo, un esclavo ajustado para recibir el canal 1 sólo responderá a la información que tenga el identificador de ese canal. Muchos de los instrumentos digitales actuales pueden producir más de un timbre simultáneamente, cada uno en respuesta a un canal MIDI distinto. Esto es similar a los televisores digitales que pueden exhibir múltiples canales en ventanas simultáneas. La importancia de MIDI se hace evidente cuando se añade un secuenciador: hardware y/o software que graba, edita y reproduce datos MIDI en tiempo real. Al igual que las grabadoras de cinta multipistas, los secuenciadores cuentan con varias pistas que pueden servir para grabar elementos discretos de una ejecución. La posibilidad de asignar pistas a canales MIDI de transmisión discretos es la base para las composiciones y orquestaciones electrónicas avanzadas que hallamos hoy día en muchos de los éxitos musicales y en las bandas sonoras de las películas. Esta misma tecnología adquiere cada vez más importancia para las bandas sonoras de multimedios. DIRECCIONALIDAD DEL SONIDO Nuestro sentido de dirección depende en gran medida de nuestros oídos. El método que empleamos para localizar un sonido difiere para las frecuencias por arriba y por debajo de 100 Hz. Por debajo de 100 Hz, las 70

71 Página 71 de ondas que llegan a un oído están fuera de fase con las que llegan al otro, porque la longitud de onda es mayor que la distancia entre los oídos. El cerebro puede asociar cierta direccionalidad a este fenómeno, pero es difícil atribuir una ubicación exacta a la fuente de sonido. Como la longitud de onda de las frecuencias por arriba de 100 Hz es más corta que la distancia entre los oídos, las ondas sonoras que llegan a éstos están en fase; la diferencia de sus amplitudes permite al cerebro ubicar el origen del sonido. Por eso, últimamente las tarjetas de sonidos vienen con una tecnología de sonido 3D, la cual da un sonido direccional al oyente, u orienta la dirección del sonido emitido por los altavoces, basándose en lo mencionado anteriormente. El sonido 3D, incluye el sonido Dolby Surround, con la cual se distingue la ruta del sonido. Las multimedias actuales la incluyen, tanto en su hardware como en su software. Protocolos de audio digital. Hay ocasiones en que es necesario transferir información de audio digital en tiempo real entre dos dispositivos. Los protocolos de comunicación más comunes en multimedios de escritorio son AES/EBU, SDIF-2 y S/PDIF. AES/EBU fue desarrollado de manera conjunta por la Audio Engineering Society y la European Broadcast Union, y la utiliza la mayoría de los sistemas profesionales de audio digital. Es una interfaz RS-422 de dos canales que utiliza líneas balanceadas y conectores XLR o D-sub. SDIF-2 (formato de interfaz digital Sony) se encuentra en dispositivos de grabación PCM basados en videocinta; utiliza líneas balanceadas de 75 ohms con conectores BNC. S/PDIF (formato de interfaz digital Sony/Phillips) fue desarrollado de manera conjunta por Sony y Phillips. En esencia, es una versión no balanceada del protocolo AES/EBU y utiliza conexiones RCA o de fibras ópticas. Este protocolo se utiliza en grabadoras de DAT y reproductoras de CD. El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando mezclas específicas 71

72 Página 72 de para los canales derecho e izquierdo, para simular sensaciones de hueco y direccionalidad. Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en este tema: No renunciéis al sonido 3D! MÓDULO # 9: Tarjeta de video LA TARJETA DE VIDEO La tarjeta de video, (también llamada controlador de video), es un componente electrónico requerido para generar una señal de video que se manda a una pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video. Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces con potencia de cálculo superior a la del procesador principal, pero también muy diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar memorias entre 1 y 3 Mb. Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se necesitan potencias de cálculo muy superiores que el microprocesador central no puede soportar. Fundamentalmente, lo que 72

73 Página 73 de hace un chip 3D es quitar la labor del procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado multitud de efectos gráficos fáciles de usar por los programadores que mejoran sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser demasiado rápidas y con un soporte de juegos muy limitado. Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras gráficas: Las propias aceleradoras 3D, tarjetas independientes que sólo entran en funcionamiento cuando se ejecuta algún juego que necesite su funcionamiento. Estas tarjetas requieren una tarjeta 2D que se encargue de las tareas normales, con un único requisito de tener un mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un cable externo. Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único chip que se encarga tanto de las funciones 2D como de las funciones 3D de una aceleradora. Los últimos modelos que están apareciendo estos meses son realmente buenos y no tienen nada que envidiar a las aceleradoras 3D puras. COMPONENTES DE LA TARJETA GRÁFICA El procesador: El componente básico de la tarjeta. Se va a encargar de procesar (parece acorde con el nombre) la información que le llega y convertirla en imágenes. Hay muchas marcas y modelos de procesadores pero se encontrara una lista de los más frecuentes en chipsets. Actualmente, los procesadores asumen la responsabilidad de manejar los gráficos en dos (y muchas veces en tres) dimensiones, la aceleración de vídeo, liberando así al procesador para otros cometidos. Pero lo más importante es que la calidad de nuestra tarjeta no sólo depende de este chip, porque el resto de los 73

74 Página 74 de componentes también cuenta. Este procesador se designa como GPU (Graphics Process Unit), dada la función que desempeña. La memoria: A diferencia de lo que pasa con la memoria que usa el procesador del sistema (Pentium, K6, etc.), más memoria no significa más velocidad necesariamente. Hoy en día, todas las tarjetas gráficas tienen procesadores de 64 o de 128 bits, pero sólo trabajan en 64 bits cuando tienen 2 Mb de RAM. El ejemplo más típico es el de las tarjetas con chip S3 Trio 64 V (ver luego en chipsets), uno de los más populares, que se suele entregar con 1 Mb de RAM. Bueno, pues con otro mega más el rendimiento de la tarjeta sube entre un 25 (para 256 colores) y un 600 % (para 16 millones de colores). Si se quiere aceleración 3D, se debera saber que la tarjeta sólo acelerará las texturas si dispone de 4 Mb de RAM. Con sólo dos, no se podra más que notar aceleración en el dibujado de polígonos, lo cual no es mucho. Además hay diversos tipos de memoria para tarjeta gráfica que podrán estar o no soportados por nuestro procesador: 1. EDO RAM: Idéntica a la que se describe en la página de la memoria RAM. Es la más lenta, pero con un procesador rápido esto da igual. Sólo tiene un puerto de entrada/salida de comunicación con el procesador por lo que en un momento determinado sólo puede mandar o recibir datos. 2. SDRAM: Es igual que la que aparecía en la página ya mencionada. También es de un sólo puerto, pero es un 40 % más rápida que la anterior. 3. SGRAM (Synchronous Graphics RAM): Es una memoria de tipo SDRAM optimizada para gráficos por lo que da un rendimiento algo mejor (5-10%) que la anterior. También es de un sólo puerto. 4. VRAM (Vídeo RAM): Tiene un puerto de entrada y otro de salida, por lo que la tarjeta puede estar enviando y recibiendo al mismo tiempo. Esto la hace idónea para trabajar con muchos colores (a más colores, más memoria necesitada), pero también es más cara que la memoria EDO. 5. WRAM: También dispone de doble puerto pero es un 25 % más rápido que la VRAM, porque dispone de funciones de aceleración en operaciones de relleno de bloques lo que la hace óptima para manejar entornos gráficos basados en ventanas (La W es por Windows). 6. El RAMDAC. Son las siglas de Random Access Memory Digital to Analog Converter (Convertidor Digital a Analógico de Memoria de Acceso Aleatorio). Este chip sirve para realizar la conversión de los datos digitales del color de cada punto a componentes analógicos de rojo, 74

75 Página 75 de verde y azul (RGB: red, green, blue) para ser enviados al monitor. Para saber lo rápido que es, debemos mirar el ancho de banda del RAMDAC, que se mide en megahercios (igual que la velocidad del procesador. Un RAMDAC lento hará que la pantalla no se refresque suficientemente rápido, produciendo parpadeo y cansando nuestra vista. Hoy en día, podemos encontrar RAMDAC de hasta 300 MHz. EVOLUCIÓN DE LAS TARJETAS DE VIDEO En los primeros PC las necesidades de visualización prácticamente se restringían a la posibilidad de ver caracteres alfanuméricos, sin embargo con el transcurso del tiempo, esta tarjeta se ha convertido en uno de los periféricos más importantes, llegando incluso a contener chips gráficos que trabajan a velocidades superiores a las del procesador central. Monochrome Display Adapter (MDA) Las primeras tarjetas de video usadas en las máquinas más antiguas, se conformaron como el estándar MDA, establecido por IBM como parte del PC original. MDA es un estándar monocromático de texto solamente, que permite la visualización de texto en 80x25 caracteres por pantalla. Cada carácter se compone de una matriz de 9 puntos de ancho por 14 puntos de alto, dando una resolución eficaz de 720x350 con un índice de refresco de 50 hertzios (por supuesto es texto-solamente así que estos puntos no son direccionables individualmente). Obviamente, MDA está más que obsoleto. Sin embargo, fue una buena solución para las capacidades limitadas del PC original. Hercules Graphics Card Una debilidad de la tarjeta de video MDA era que no admitía gráficos de ninguna clase. Una compañía llamada Hércules, creada a principios de los 80s creó una tarjeta video compatible con MDA que soportaba gráficos monocromáticos además de los modos de texto estándar. La tarjeta Hércules era verdaderamente un estándar ampliamente aceptado a mediados de los años ochenta; incluso eventualmente aparecieron tarjetas hércules clónicas en el mercado. La asistencia para la tarjeta fue incluida en paquetes de software populares tales como loto para permitir la exhibición de gráficos y de cuadros en la pantalla de computadora. Por supuesto fue sustituida más adelante por adaptadores gráficos a color. Color Graphics Adapter (CGA) La CGA utiliza el mismo chip que la Hércules y aporta resoluciones y colores distintos. Los tres colores primarios se combinan digitalmente formando un máximo de ocho colores distintos. La resolución varía 75

76 Página 76 de considerablemente según el modo de gráficos que se esté utilizando, como se ve en la siguiente lista: 160 X 100 PUNTOS CON 16 COLORES * 320 X 200 PUNTOS CON 4 COLORES * 640 X 200 PUNTOS CON 2 COLORES La tarjeta EGA Enchanced Graphics Adapter (EGA). Se trata de una tarjeta gráfica superior a la CGA. En el modo texto ofrece una resolución de 14x18 puntos y en el modo gráfico dos resoluciones diferentes de 640x200 y 640x350 a 4 bits, lo que da como resultado una paleta de 16 colores, siempre y cuando la tarjeta esté equipada con 256KB de memoria de video RAM. La tarjeta VGA La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del mercado. Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes de colores mucho más vivos. Las primeras VGA contaban con 256KB de memoria y solo podían alcanzar una resolución de 320x200 puntos con la cantidad de colores mencionados anteriormente. Primero la cantidad de memoria video RAM se amplió a 512KB, y más tarde a 1024KB, gracias a ésta ampliación es posible conseguir una resolución de, por ejemplo, 1024x768 píxeles con 8 bits de color. En el modo texto la VGA tiene una resolución de 720x400 pixeles, además posee un refresco de pantalla de 60HZ, y con 16 colores soporta hasta 640X480 puntos. La tarjeta SVGA La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de chips de uso especial, y más memoria, lo que aumenta la cantidad de colores y la resolución. Super VGA (SVGA) y otros estándares posteriores a VGA VGA fue el último estándar bien definido y universalmente aceptado para el vídeo. Después de que la IBM se dejara de liderar el mundo de la PC muchas compañías llegaron al mercado y crearon tarjetas nuevas con más resolución y profundidades de color que VGA estándar (pero casi siempre, compatible con VGA). La mayoría de las tarjetas video (y los monitores para PC) se anuncian hoy como siendo Super VGA (SVGA). Qué realmente significa una tarjeta que dice que es SVGA? Desafortunadamente, no significa mucho de nada. SVGA se refiere colectivamente a cualquiera y a todo el conjunto de resoluciones, de los modos del color y de los pseudoestándares pobremente aceptados que se han creado para ampliar las 76

77 Página 77 de capacidades de VGA. Por lo tanto, sabiendo que una tarjeta que soporta "Super VGA" realmente no dice nada del todo. En el mundo actual de múltiples estándares de video se tiene que descubrir específicamente qué resoluciones, profundidades de color y tasas de refresco soporta cada tarjeta. También hay que cerciorarse de que el monitor que se está utilizando admite los modos que la tarjeta de video produce; nuevamente "Super VGA compatible" en el monitor no tampoco ayuda. Para hacer las cosas aún más confusas, otro término que se utiliza a veces: Ultra VGA o UVGA. Como SVGA, este término realmente tampoco significa nada. A alguna gente le gusta referirse a VGA como resolución 640x480, a SVGA como 800x600, y a UVGA como 1024x768. Esto ha terminado siendo extremadamente simplista sin embargo, y realmente no es algo en lo cual se puede confiar. La proliferación de chipsets y de los estándares de video ha creado la confianza en los controladores o drivers de software que los usuarios de la PC han venido a conocer tan bien. Mientras que Microsoft Windows, por ejemplo, tiene un controlador genérico de VGA que trabaja con casi cualquier tarjeta video que existe, usar las capacidades de resolución más altas de una tarjeta de video, requiere un controlador específico hecho para trabajar con dicha tarjeta. (los estándares de VESA han cambiado esto en parte, pero no completamente). La IBM creó varios nuevos estándares de video después de VGA con lo que amplió sus capacidades. Comparado con VGA, éstos han recibido una aceptación muy limitada en el mercado, principalmente porque fueron implementadas en tarjetas que utilizaban el bus popietario de la IBM de arquitectura micro canal MCA (que no recibió ninguna aceptación en el mercado). Otros intentos de estandarización fueron: 8514/A: Este estándar fue introducido realmente al mismo tiempo que el estándar VGA y proporciona modos más altos de resolución y color con algunas capacidades de aceleración de video por hardware también. Para los estándares modernos 8514/A sigue siendo algo primitivo: soporta gráficos de 1024x768 en 256 colores pero solamente en 43.5 hertz (entrelazado), o 640x480 a 60 hertz (no entrelazado). XGA: Estas siglas significan extended graphics Array. Las tarjetas XGA fueron utilizadas en los últimos modelos PS/2; pueden ejecutar bus mastering en MCA y utilizan 512 KB o 1 MB de VRAM. En la configuración de 1MB, XGA soporta gráficos de 1,024x768 en 256 colores, o 640x480 en alto color (16 bits por pixel). 77

78 Página 78 de XGA-2: Este modo de gráficos mejora XGA extendiendo el soporte a 1,024x768 en alto color, y también soporta tasas de refresco más altas que XGA o 8514/A. Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces con potencia de cálculo superior a la del procesador principal, pero también muy diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar memorias entre 1 y 3 Mb. Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se necesitan potencias de cálculo muy superiores que el microprocesador central no puede soportar. Fundamentalmente, lo que hace un chip 3D es quitar la labor del procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado multitud de efectos gráficos fáciles de usar por los programadores que mejoran sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser demasiado rápidas y con un soporte de juegos muy limitado. La decisión de elegir un chip u otro es bastante compleja. Dentro del campo 2D, gracias al estándar VESA, todas las tarjetas son compatibles entre sí. Sin embargo, en los chips 3D (o la parte 3D de los chips 2D/3D), existen más problemas puesto que no todos contienen las mismas instrucciones ( quién no ha oído hablar de los famosos parches para una u otra tarjeta?). Esto pasaba sobre todo en los primeros juegos acelerados 3D para MS-DOS. Por ello, se han creado unos APIs, que consiguen solucionar estos problemas, y funcionan bajo Windows 95/98. Éstos son el DirectX de Microsoft (el componente Direct 3D en concreto) y el OpenGL de Silicon Graphics. Más abajo tienes infromación sobre estos APIs. Y también, hay que recordar que no todas las tarjetas 3D son iguales: unas sirven digamos para "trabajar" (las compatibles con programas como 3D Studio, TrueSpace...) y las que sirven para "jugar". Muy pocas tarjetas se desenvuelven bien en estos dos campos. Y ya para terminar este apartado, dejemos fijadas ciertas bases de conocimiento: 78

79 Página 79 de Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras gráficas: o Las propias aceleradoras 3D, tarjetas independientes que sólo entran en funcionamiento cuando se ejecuta algún juego que necesite su funcionamiento. Estas tarjetas requieren una tarjeta 2D que se encargue de las tareas normales, con un único requisito de tener un mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un cable externo. o Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único chip que se encarga tanto de las funciones 2D como de las funciones 3D de una aceleradora. Los últimos modelos que están apareciendo estos meses son realmente buenos y no tienen nada que envidiar a las aceleradoras 3D puras. Y ya por último, ten en cuenta que las tarjetas aceleradoras pueden servir para "trabajar" o para jugar. Una aceleradora profesional de ptas. será incapaz de acelerar cualquier juego normal, y una aceleradora 3D pura de no podrá renderizar ningún tipo de gráfico en programas como 3D Studio o TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden acelerar juegos muy bien, y también renderizar gráficos profesionales de una manera bastante aceptable. Librerías y APIs Cada chip gráfico tiene una forma de procesar las rutinas implementadas en ellos, por lo que hay una incompatibilidad (sobre todo en el 3D, ya que en el 2D existe el estándar VESA que libera de estos problemas). Para ello, han surgido las librerías de programación, para unificar en un API las diferentes funciones, y destacan 2: OpenGL, de Silicon Graphics, que está adoptada por sistemas como Unix, Iris, Windows NT, para profesionales. DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los juegos. Depende de nuestro uso del ordenador, nos decantaremos por el soporte de uno u otro (aunque hay varias tarjetas gráficas que soportan los dos). 79

80 Página 80 de La controladora de vídeo en un ordenador es la responsable de transmitir la información al monitor para que la podamos ver en la pantalla. Hay una gran variedad de tarjetas de vídeo, cada una con sus características especiales. Cuantos más píxeles sean capaces de dibujar en pantalla por la unidad de tiempo, mejor rendimiento obtendremos en las aplicaciones que usen intensivamente los gráficos, como por ejemplo Windows. Vamos a poneros un ejemplo para comprenderlo con un par de imágenes: 640x480 a 256 colores 1280x1024 a 256 colores 1. Puedes ver cómo en en primer caso, los iconos se ven más grandes y, por tanto, caben menos. Por consiguiente, el logotipo de Duiops se verá con menos definición y más "cuadriculado". Las ventanas se colocarán unas encimas de otras y el trabajo se hará muy engorroso. 2. En el segundo caso, los iconos se ven más pequeños y, por tanto, caben más. Por consiguiente, el logotipo de Duiops se verá con más definición y más perfilado. Los píxels son muy difíciles de apreciar. Las ventanas podrán abrirse una al lado de la otra, de forma que se vea el contenido de ambas, y el trabajo será más amigable. Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las tarjetas gráficas tienen chips de memoria, y hoy día el mínimo que se puede encontrar son 4 Mb, aunque se recomienda un mínimo de 8. Para poder conseguir mayores resoluciones a más cantidades de colores, hay que ampliar la memoria. Para saber la que necesitamos, hay que 80

81 Página 81 de multiplicar la resolución horizontal por la resolución vertical; esto nos da la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso multiplicar el resultado por dos para obtener la cantidad necesaria para 16 bits de color, y por tres para los 24 bits. Hoy día las tarjeras gráficas domésticas llevan hasta 32 Mb de memoria, los cuales permiten alcanzar resoluciones tan asombrosas como 2048x1536 a 32 bits (más de millones de colores) Recordemos que más memoria en la tarjeta gráfica no implica mayor velocidad, a no ser que la utilice como memoria caché. También hay que tener en cuenta el tipo de memoria incorporada; frente a la DRAM clásica es mejor utilizar otros tipos, como la EDO o la VRAM; al disponer ésta de dos puestos permite aumentar el ancho de banda en las transferencias de información. Otra opciones, como la WRAM (que optimiza las operaciones de manejo de bloques de memoria), la MDRAM (memoria multibanda que no retarda los procesos de conmutación de bancos) o la SDRAM (RAM síncrona capaz de trabajar a la misma velocidad de reloj que el chip de la tarjeta) deben ser considerada. Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar memoria DDR en algunas tarjetas (Double Data Rate), la cual aprovechando ciertas fases del ciclo de reloj hasta ahora no utilizados, es capaz de proporcionar un notable incremento en el ancho de banda disponible, con respecto a la memoria convencional SDR (Single Data Rate). Cuando más aumentas la resolución más "atasco" se produce debido a las limitaciones propias de la memoria. Con el sistema DDR esta limitación ya no existe y es posible utilizar resoluciones de 1280x1024 e incluso de 1600x1280 sin ninguna pérdida de velocidad. BUSES DEDICADOS PARA GRÁFICOS Los primeros PC utilizaban tarjetas ISA de 8 y 16 bits, con la aparición de VESA las tarjetas gráficas utilizaron las ventajas que este tipo de bus proporcionaba, específicamente por las velocidades de transmisión de información, pero fue realmente con el surgimiento de PCI y su consolidación como estándar que se establecieron buses específicos para gráficos. En la actualidad normalmente las placas base cuentan con la funcionalidad de video incorporada y con un bus AGP o PCI Express opcional para aumentar las capacidades de video del PC. Las placas de video se fabrican hoy día para buses PCI y AGP (estos buses permiten características como Plug and Play y Bus Mastering, ésta última para optimizar las operaciones de transferencia de la tarjeta). 81

82 Página 82 de Estas tarjetas se suelen usar en ordenadores Pentium o Pentium II y equivalentes (como el K6 o el K6-2 de AMD). Se puede aún encontrar de segunda mano alguna ISA para ordenadores 386 y 486, y las VESA están ya abandonadas. Lo único, decir que las tarjetas AGP, usadas en ordenadores Pentium II/III son capaces de usar la memoria RAM como memoria de texturas, es decir, no sólo la memoria que viene incluida en la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para AGP, son capaces de tener texturas animadas o de alta resolución moviéndose a una velocidad asombrosa. Esta memoria de texturas no está disponible para placas Socket 7 ni para placas Slot A con el Athlon de AMD. Además, el AGP ofrece un ancho de banda superior al PCI: si el PCI va a 66 MHz, el AGP va a 133 MHz, con unas variantes: el AGP 2x a 266 MHz y el AGP 4x a 533 MHz. Lástima que los programas actuales no exploten sus posibilidades, pero esto terminará con el AGP 4x que llegará en Y por último, hay que decir que no todas las tarjetas AGP son "AGP verdaderas", es decir, que utilizan la memoria RAM como mmoria de texturas. Las AGP no verdaderas son todas aquellas que tienen tanto versión PCI como AGP, o bien que la versión AGP ha evolucionado de la PCI (puede haber que tenga versión PCI y luego una versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido diseñadas para tal fin, y que sólo existen en versión AGP. Todas las tarjetas AGP verdaderas hoy día son 2x, mientras que las AGP que no utilizan la memoria RAM como memoria de texturas son 1x (un modo sencillo de diferenciarlas). También se pueden diferenciar las AGP 4x y las AGP 2x, las primeras llevan 2 hendiduras en los contactos de la zona de conexión y las segundas llevan sólo una. AGP 1x La primera versión de AGP, la 1.0, hoy llamada AGP 1x/2x, usa un diseño de bus (aunque AGP es un puerto, también puede ser visto como un bus que sólo permite la conexión de dos dispositivos: el chipset y el chip gráfico) derivado del PCI v2.1, con un ancho de 32 bits y operando a una frecuencia de 66 MHz. Las líneas de señalización operan con un voltaje de 3.3 Volts. Esto resulta en una tasa de transferencia máxima de 266 MegaBytes por segundo. En comparación, el bus PCI estándar de 32 bits y 33 MHz sólo transfiere hasta 127 MB/seg. Aparte de su mayor velocidad de transferencia, AGP proporciona un diseño de administración de memoria que le permite leer datos (por ejemplo, texturas) ubicados en la memoria RAM del PC en rápidas ráfagas, una técnica denominada DIME ("Direct Memory Execute"). Mucho se dijo, cuando AGP estaba entrando al mercado, de que esta 82

83 Página 83 de gracia permitiría abaratar los costos de las tarjetas 3D, al permitir que estas usaran la memoria RAM del PC. En la práctica, el usar memoria principal impone una fuerte reducción de rendimiento, por lo que la gran mayoría de las tarjetas gráficas optaron mejor por disponer de su propia memoria, hasta que hoy en día una tarjeta con 128 o 256 MB de memoria gráfica no es una rareza. AGP 2x Es similar al AGP 1x, pero transfiere dos datos por ciclo de reloj usando una técnica similar a la de las memorias DDR, por lo que su tasa de transferencia máxima llega a los 528 MB/seg. El AGP 2x sigue siendo parte del estándar AGP 1.0 ya que el uso de dos datos por ciclo estaba ya contemplado cuando apareció AGP 1x. AGP 4x Aqui ya tenemos la primera gran revisión del estándar, que logra la transmisión de 4 datos por ciclo de reloj, dando lugar al AGP 2.0. Su ancho de banda máximo alcanza así poco mas de 1 GB/seg. Además, AGP 2.0 cambia el voltaje de señalización a 1.5 Volts. Cabe hacer notar que una tarjeta AGP 4x es capaz de operar en placas madres con puerto AGP 1x o 2x, sin embargo, muchas tarjetas AGP antiguas, del estándar AGP 1.0, no son capaces de operar en puertos AGP 4x por lo que es necesario tener cuidado al intentar usar una tarjeta gráfica antigua en una placa madre moderna. AGP 8x Un nuevo cambio en el estándar, con la aparición del AGP 3.0, el que transmite 8 datos por ciclo de reloj, alcanzando así una transferencia máxima de 2.1 GB/seg. Aunque el voltaje de señalización sigue siendo de 1.5 Volts, la mayoría de las tarjetas AGP 8x no pueden operar en puertas AGP 1.0 (las 1x y 2x), siendo un punto a tener en cuenta a la hora de los upgrades. El uso del puerto AGP debiera comenzar a desaparecer durante el año 2005, pues Intel ha señalado que sus futuros chipsets (programados 83

84 Página 84 de para ser introducidos durante el 2004) reemplazarán el puerto AGP con el bus PCI-Express. En igual forma, Nvidia ha anunciado que su próximo chip gráfico (el NV40) será el último con soporte nativo para AGP. Otro tanto ha manifestado ATI para su chip R420. PCI - EXPRESS Aunque el PCI Express 16X permite la transferencia simultánea de hasta 4 gigabytes por segundo comparado con el ancho de banda compartido de 2,1 GBps de AGP 8X, ni siquiera los juegos más exigentes han podido crear un cuello de botella en el conducto AGP. Pruebas hechas sobre tarjetas diseñadas con conjuntos de chips de NVidia y ATI (Nvidia: tarjeta de referencia para PCI Express con chip GeForce 6800 GT y 256MB de memoria; ATI: versión de preproducción de una tarjeta equipada con el chip Radeon X600 XT y 128MB de memoria). Para esta fecha (abril de 2005) las tarjetas basadas en el chip NVidia 6800 GT están ya a la venta por US$399. El chip ATI Radeon X600 XT también está disponible por alrededor de US$199. Para la comparación se usaron dos tarjetas AGP: La primera, una Leadtek WinFast A400 GT (US$400) con el chip NVidia GeForce 6800 GT (el mismo que utiliza la tarjeta de NVidia para PCI Express) y 128MB de memoria. La segunda, una Vision Tek Xtasy 9600 XT (US$200), basada en el chip ATI Radeon 9600 XT (un chip distinto pero comparable al que usa la tarjeta ATI X600 para PCI Express) y con 256MB de memoria. La comparación de la tarjetas de gráficos AGP con sus hermanas PCI Express es complicada porque no hay manera de probar ambas tarjetas en la misma PC (aunque por lo menos un fabricante de chips está contemplando producir un producto dual que combina AGP con PCI Express). Resultados de las pruebas En la mayoría de las pruebas, las tarjetas basadas en PCI Express terminaron en un empate virtual con las tarjetas AGP. Por ejemplo, en la prueba de Halo, realizada a una resolución de por 768, la tarjeta de ATI dibujó 34 cuadros por segundo mientras que la ATI PCI Express produjo 35 cps. De manera similar, las dos tarjetas de NVidia quedaron separadas por un solo cuadro por segundo (59 contra 58). La misma prueba, ejecutada esta vez a la resolución de por 1.200, produjo resultados idénticos con ambas tarjetas. Los únicos resultados significativamente distintos se vieron en las tarjetas de ATI usando el juego Splinter Cell: con la resolución de por 768, la tarjeta AGP se anotó 36 cps mientras que la de PCI Express logró 41 cps; los resultados a la resolución de por fueron de 23 cps y 27 cps 84

85 Página 85 de para los diseños AGP y PCI Express, respectivamente. En todas las pruebas, el producto de NVidia produjo resultados más altos, con marcas de 74 y 75 cps a la resolución de por 768 para las versiones AGP y PCI Express, respectivamente; cuando repetimos la prueba a por 1.200, la productividad bajó 9 cps en ambos modelos. En la prueba de Unreal Tournament 2004 a la resolución más baja, las tarjetas AGP tuvieron una ventaja insignificante sobre sus homólogas PCI. A la más alta, los resultados de las tarjetas de NVidia fueron idénticos; pero la tarjeta de ATI para PCI Express se demoró extraordinariamente (34 cps contra 46 para el modelo AGP). Este resultado pudiera deberse a diferencias en la capacidad de memoria y a peculiaridades del conjunto de chips o del controlador. Entonces hay que olvidarse de PCI Express? Los resultados obtenidos en estas pruebas no significan que se deba pensar en pasar por alto los sistemas y tarjetas de gráficos que utilizan PCI Express, pero claramente no hay necesidad de precipitarse a comprar una PC basada en este bus sólo por los gráficos. Más adelante, muchos sistemas vendrán de fábrica con PCI Express, lo que significa que no tendrá que pagar más para conseguirlo. Y una vez que el software comience a usar el ancho de banda adicional disponible en PCI Express, se alegrará de tenerlo. Entretanto, la selección de productos de NVidia y ATI ya sean los basados en AGP o los diseñados para PCI Express se ha convertido en una cuestión de gusto. Si usted ya tiene un sistema con PCI Express, se quedará satisfecho con las nuevas ofertas de cualquiera de estas dos compañías. Tecnología SLI, el futuro SLI, que significa Scalable Link Interface sólo puede usarse en tarjetas PCI Express, ni AGP ni mucho menos PCI. Esto es así principalmente por el ancho de banda que proporciona el PCI Express, teniendo en cuenta que el paso a éste desde el AGP fue debido a que este último nos ofrecía apenas para una tarjeta gráfica, difícilmente podrá ofrecer ancho para dos. Por lo tanto, la placa base en la que montemos nuestro sistema SLI deberá incluir dos ranuras PCI Express, que deberán ser además de 16X o de 8X. Esta tecnología permite en algunos casos llegar a duplicar efectivamente el rendimiento de una tarjeta gráfica al dividir las tareas propias de la GPU en dos GPU s, cada una con su propia memoria. Las 85

86 Página 86 de GPU se comunican a través de una conexión directa entre ellas (de ahí la palabra Link), haciendo mucho más eficiente el manejo de gráficos. Esta conexión se hace por medio de un cable que une las dos tarjetas gráficas que deben estar presentes en el sistema. 86

87 Página 87 de MÓDULO # 10: Otros dispositivos periféricos Dispositivos Periféricos. I. Jaz (Iomega) - 1 GB ó 2 GB Pros: capacidad muy elevada, velocidad, portabilidad Contras: inversión inicial, no tan resistente como un magneto-óptico, cartuchos relativamente caros Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz es internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se encuentra en la unidad. Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con sus inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este soporte de duro y fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un soporte óptico o magneto-óptico. Aplicaciones Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor velocidad posible, lo cual lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje. En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre", sólo tiene un inconveniente: el precio. La unidad lectoragrabadora de 1 GB vale una respetable cantidad de dinero. II. Zip (Iomega) MB Pros: portabilidad, reducido formato, precio global, muy extendido Contras: capacidad reducida, incompatible con disquetes de 3,5" Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al igual que los disquetes habituales (los hay de todos los 87

88 Página 88 de colores). Estos discos son dispositivos magnéticos un poco mayores que los clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y fiables, con una capacidad sin compresión de 100 MB una vez formateados. Su capacidad los hace inapropiados para hacer copias de seguridad del disco duro completo, aunque perfectos para archivar todos los archivos referentes a un mismo tema o proyecto en un único disco. Su velocidad de transferencia de datos no resulta comparable a la de un disco duro actual, aunque son decenas de veces más rápidos que una disquetera tradicional (alrededor de 1 MB/s). Existen en diversos formatos, tanto internos como externos. Los internos pueden tener interfaz IDE, como la de un disco duro o CD-ROM, o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque su precio es también superior. Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a la versión interna) o bien conectable al puerto paralelo, sin tener que prescindir de la impresora conectada a éste. El modelo para puerto paralelo pone el acento en la portabilidad absoluta entre ordenadores (Sólo se necesita que tengan el puerto Lpt1) aunque su velocidad es la más reducida de las tres versiones. Muy resistente, puede ser el acompañante ideal de un portátil. Ha tenido gran aceptación, siendo el estándar en su segmento, pese a no poder prescindir de la disquetera de 3,5" con la que no son en absoluto compatibles, aunque sus ventajas puede que suplan este inconveniente. El precio de la versión interna ronda los $ (más IVA) y los Discos alrededor de $ (más IVA). Muchas de las primeras unidades Zip sufrían el denominado "mal del click", que consistía en un defecto en la unidad lectora-grabadora que, tras hacer unos ruiditos o "clicks", destrozaba el disco introducido; afortunadamente, este defecto está corregido en las unidades actuales. En todo caso, los discos son bastante resistentes, pero evidentemente no llegan a durar lo que un CD-ROM. La tecnología óptica la tecnología óptica de almacenamiento por láser hace su primera aplicación comercial masiva con el superexitoso CD de música, que data de comienzos de la década de Los fundamentos técnicos que se utilizan son 88

89 Página 89 de relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo. Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio. Disco de vídeo digital Disco de vídeo digital, también conocido en la actualidad como disco versátil digital (DVD), un dispositivo de almacenamiento masivo de datos cuyo aspecto es idéntico al de un disco compacto, aunque contiene hasta 25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un CD-ROM. Su mayor capacidad de almacenamiento se debe, entre otras cosas, a que puede utilizar ambas caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos; no obstante, los lectores de CD no permiten leer DVDs. En un principio se utilizaban para reproducir películas, de ahí su denominación original de disco de vídeo digital. Hoy, los DVD-Vídeo son sólo un tipo de DVD que almacenan hasta 133 minutos de película por cada cara, con una calidad de vídeo LaserDisc y que soportan sonido digital Dolby surround; son la base de las instalaciones de cine en casa que existen desde Además de éstos, hay formatos específicos para la computadora que almacenan datos y material interactivo en forma de texto, audio o vídeo, como los DVD-R, unidades en las que se puede grabar la información una vez y leerla muchas, DVD-RW, en los que la información se puede grabar y borrar muchas veces, y los DVD-RAM, también de lectura y escritura. 89

90 Página 90 de En 1999 aparecieron los DVD-Audio, que emplean un formato de almacenamiento de sonido digital de segunda generación con el que se pueden recoger zonas del espectro sonoro que eran inaccesibles al CD- Audio. Todos los discos DVD tienen la misma forma física y el mismo tamaño, pero difieren en el formato de almacenamiento de los datos y, en consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una capa almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas almacenan hasta 17 GB. Del mismo modo, no todos los DVDs se pueden reproducir en cualquier unidad lectora; por ejemplo, un DVD-ROM no se puede leer en un DVD-Vídeo, aunque sí a la inversa. Por su parte, los lectores de disco compacto, CD, y las unidades de DVD, disponen de un láser, ya que la lectura de la información se hace por procedimientos ópticos. En algunos casos, estas unidades son de sólo lectura y en otros, de lectura y escritura. 90

91 Página 91 de Tipos de discos compactos SOPORTE CAPACIDAD DE ALMACENAMIENTO DURACIÓN MÁXIMA DE AUDIO DURACIÓN MÁXIMA DE VÍDEO NÚMERO DE CDs A LOS QUE EQUIVALE Disco compacto (CD) 650 Mb 1 h 14 min. 14 min. 1 Disco compacto (CD) 700 Mb 1 h 20 min. 17 min. 1 DVD una cara / una capa 4,7 Gb 9 h 30 min. 2 h 15 min. 7 DVD una cara / doble capa 8,5 Gb 17 h 30 min. 4 h 13 DVD doble cara / una capa 9,4 Gb 19 h 4 h 30 min. 14 DVD doble cara / doble capa 17 Gb 35 h 8 h 26 91

92 Página 92 de MÓDULO # 11: Particiones y manejo de información Sistemas de Archivos La mayoría de los sistemas operativos poseen su propio sistema de archivos. Los sistemas de archivos son representados ya sea textual o gráficamente utilizando gestores de archivos o "shells". En modo gráfico a menudo son utilizadas las metáforas de carpetas (directorios) conteniendo documentos, archivos y otras carpetas. Un sistema de archivos es parte integral de un sistema operativo moderno. Los sistemas de archivos más comunes utilizan dispositivos de almacenamiento de datos que permiten el acceso a los datos como una cadena de bloques de un mismo tamaño, a veces llamados sectores, usualmente de 512 bytes de longitud. El software del sistema de archivos es responsable de la organización de estos sectores en archivos y directorios y mantiene un registro de qué sectores pertenecen a qué archivos y cuáles no han sido utilizados. En la realidad, un sistema de archivos no requiere necesariamente de un dispositivo de almacenamiento de datos, sino que puede ser utilizado también para acceder a datos generados dinámicamente, como los recibidos a través de una conexión de red. Generalmente un sistema de archivos tiene directorios que asocian nombres de archivos con archivos, usualmente conectando el nombre de archivo a un índice en una tabla de asignación archivos de algún tipo, como FAT en sistemas de archivos MS-DOS o los inodos de los sistemas Unix. La estructura de directorios puede ser plana o jerárquica (ramificada o "en árbol"). En algunos sistemas de archivos los nombres de archivos son estructurados, con sintaxis especiales para extensiones de archivos y números de versión. En otros, los nombres de archivos son simplemente cadenas de texto y los metadatos de cada archivo son alojados separadamente. En sistemas de archivos jerárquicos, en lo usual, se declara la ubicación precisa de un archivo con una cadena de texto llamada "ruta". La nomenclatura para rutas varía ligeramente de sistema en sistema, pero mantienen por lo general una misma estructura. Una ruta viene dada por una sucesión de nombres de directorios y subdirectorios, ordenados jerárquicamente de izquierda a derecha y separados por algún carácter especial que suele ser una barra ('/') o barra invertida ('\') y puede 92

93 Página 93 de terminar en el nombre de un archivo presente en la última rama de directorios especificada. Así, por ejemplo, en un sistema Unix la ruta a la canción preferida del usuario "pedvi" sería algo como: /home/pedvi/música/canción.wav Un ejemplo análogo en un sistema de archivos Windows se vería como: C:\Mis documentos\mi música\canción.wav Los sistemas de archivos pueden ser clasificados en tres ramas: Sistemas de archivos de disco. Sistemas de archivos de red. Sistemas de archivos de propósito especial. Sistemas de archivos de disco Un sistema de archivo de disco está diseñado para el almacenamiento de archivos en una unidad de disco, que puede estar conectada directa o indirectamente a la computadora. Tipos: Ext2 y 3. FAT16 y 32. NTFS. ReiserFS ISO EXT2 (Second extended Filesystem o "Segundo sistema de archivos extendido"): Fue el sistema de archivos estándar en el sistema operativo Linux por varios años y continúa siendo ampliamente utilizado. Fue diseñado originalmente por Rémy Card. La principal desventaja de EXT2 es que no posee una bitácora, por lo que muchos de sus usuarios están emigrando a ReiserFS y su sucesor EXT3. EXT3 (Third extended Filesystem o "Tercer sistema de archivos extendido"): Es un sistema de archivos con registro por diario (en inglés "journaling"), el cual se encuentra creciendo en popularidad entre usuarios del sistema operativo Linux. A pesar de su menor desempeño y escalabilidad frente a alternativas 93

94 Página 94 de como ReiserFS o XFS, posee la ventaja de permitir migrar del sistema de archivos EXT2 sin necesidad de reformatear el disco. La única diferencia entre EXT2 y EXT3 es el registro por diario. Un sistema de archivos EXT3 puede ser montado y usado como un sistema de archivos EXT2. FAT (File Allocation Table o "Tabla de ubicación de archivos"): Es el principal sistema de archivos desarrollado para MS-DOS y Windows. El sistema de archivos FAT es relativamente sencillo, y debido a eso es muy popular como formato para disquetes. Además, el formato FAT es soportado por casi todos los sistemas operativos para PCs IBM, y debido a esto a menudo se lo utiliza para compartir información entre diversos sistemas operativos en un mismo equipo. FAT es un sistema de archivos relativamente anticuado, y debido a esto sufre de varios problemas: Para comenzar, su distribución de archivos simple permite la fragmentación, lo que produce eventuales pérdidas en el desempeño de operaciones sobre archivos. Luego, FAT no fue diseñado para redundancia en caso de fallas del sistema. Las primeras versiones de FAT permitían nombres de archivo de hasta 12 caracteres, aunque esto fue solucionado por Microsoft al inventar VFAT, el cual permite nombres de hasta 255 caracteres. Finalmente, los sistemas de archivos FAT no permiten directivas de seguridad, garantizando el acceso a todos los archivos de una partición por cualquier usuario del sistema operativo. NTFS (New Tecnology File System o "Sistema de archivos de nueva tecnología"): Sistema de archivos diseñado específicamente para Windows NT, con el objetivo de crear un sistema de archivos eficiente, robusto y con seguridad incorporada desde su base. También soporta compresión nativa de ficheros y encriptación (esto último sólo a partir de Windows 2000). NTFS permite definir el tamaño del cluster, a partir de 512 bytes (tamaño mínimo de un sector) de forma independiente al tamaño de la partición. Es un sistema adecuado para las particiones de gran tamaño requeridas en estaciones de trabajo de alto rendimiento y servidores.puede 94

95 Página 95 de manejar discos de hasta 2 terabytes. Los inconvenientes que plantea son: Necesita para si mismo una buena cantidad de espacio en disco duro por lo que no es recomendable su uso en discos menores de 400 MB. No es compatible con MS-DOS, Windows 95 ni Windows 98. La conversión a NTFS es unidireccional, si elige actualizar la unidad, no podrá volver a convertirla a FAT. ReiserFS: Es un sistema de archivos de propósitos generales, diseñado e implementado por un equipo liderado por Hans Reiser. Actualmente funciona bajo Linux, con la versión del núcleo Linux, se convirtió en el primer sistema de archivos con registro por diario (en inglés, "journaling") en ser incluido en el núcleo estándar. La ventaja más evidente sobre el sistema de archivos estándar de Linux, EXT2, es su registro por diario. Esto reduce ampliamente el riesgo de corrupción del sistema de archivos (y la necesidad de extensas revisiones del sistema) después de un apagado no programado del sistema, ya sea por un corte eléctrico o un error del sistema. Desafortunadamente, convertir un sistema a ReiserFS requiere para usuarios de EXT2 el reformateo completo de sus discos, una desventaja no presente en su principal competidor, EXT3. ReiserFS maneja directorios conteniendo enormes cantidades de archivos pequeños muy eficientemente. ISO 9660: En el año 1985, diferentes distribuidores de software y fabricantes de hardware trabajaron conjuntamente obteniendo como fruto el llamado formato HSG, vigente aún hoy en día en los CD para ordenadores PC y también para muchos sistemas UNIX. Todos los CD-ROM actuales están provistos de este formato. El nombre de este formato viene de "High Sierra Group", que es el nombre que recibieron los diferentes técnicos que participaron en el desarrollo del HSG en honor al primer lugar donde se reunieron, el hotel y casino "High Sierra" en el estado de Nevada, Estados Unidos. Un año después, las autoridades de normalización americanas ISO estandarizaron la propuesta, que se presentó bajo el título "Volume and File Structure of Compact Read Only Optical Disk for Information Interchange". Desde entonces se habla de la norma ISO 9660 o simplemente de la ISO

96 Página 96 de Las Particiones Un disco duro es un soporte capaz de almacenar datos. Pero para ello, tiene que estar preparado. Todos los sistemas operativos, entienden en común una cosa: LAS PARTICIONES. Es lo único que es común para todos los sistemas operativos de PC. Posteriormente cada sistema operativo, puede tener un sistema de archivos totalmente diferente, por lo que una partición creada con un sistema operativo, puede no ser visible para otro. Incluso puede que ni le asigne letra de disco. Que es una PARTICION? Es simplemente un pedazo del disco. Lo normal, es que solo exista una partición, con lo cual muchas veces no nos cuestionamos que pueda existir más de una. Pero TODOS los discos, por definición, pueden tener hasta 4 particiones. Pueden ser de 1 a 4 primarias o hasta tres primaria y una secundaria (a veces llamada también EXTENDIDA). Un aspecto importante a tener en cuenta cuando se trata de particiones primarias es el hecho de que en todo momento solo una de las particiones está "activa". Cuando una partición primaria determinada está "activa", no se puede acceder a las demás particiones primarias en el mismo disco físico. Por consiguiente, el sistema operativo de una partición primaria no puede acceder a los datos de otra partición primaria en el mismo disco físico. En la partición secundaria (extendida), podemos crear luego, las llamadas unidades lógicas. Es decir podemos subdividirla en otras partes mas pequeñas y asignarles letra de disco). Supongamos un solo disco físico con 3 particiones primarias (la primera "activa"), y una partición extendida con otras 2 unidades lógicas. Nuestro disco, de cara al sistema operativo tendrá: la letra C: para la unidad primaria activa. Las letras D: y E: para las dos unidades lógicas dentro de la partición extendida. Y las otras dos particiones primarias SON IMPOSIBLES de ver por ningún sistema operativo. La ultima frase, parece una incongruencia. para que queremos 2 particiones que no nos valen para nada, si no podemos acceder a ellas. Pero..., imaginemos un programilla listo, que nos cambia solo el indicador de "activa" en la partición. En ese momento, la partición primera la dejamos de ver. Y ahora vemos que la segunda que es la activa, pasa a ser la letra C:. (nos obliga a reiniciar la maquina). Y para que sirve?. Pues para tener distintos sistemas operativos que no se vean entre sí, y con pequeño programita o utilidad cambiando de partición primaria activa, cambio completamente el entorno. Todo lo del párrafo anterior, aunque es verdad, no se suele utilizar. Sobre todo porque las herramientas que nos da el MS-DOS (y el 96

97 Página 97 de Windows) como es el FDISK, solo nos permiten una partición primaria por disco y por supuesto, también la partición secundaria con sus posibles unidades lógicas. Pero lo mas importante, según lo anterior, y para fijar conceptos: Un disco duro tiene un sector único y fijo en el disco llamado Master Boot Record (MBR). Este sector, contiene un miniprograma y una tabla. Cuando encendemos el ordenador, la BIOS, lo único que sabe hacer es buscar el disco duro el MBR, que sabe donde está por tener posición fija para todos los sistemas operativos, cargar un sector de 512 bytes en memoria en una posición fija (x'7c00') y ceder el control a dicho miniprograma. La pequeña tabla que tiene el MBR, contiene datos de inicio, tamaño y posición de las 4 posibles particiones del disco duro, con información de: clase de partición, tipo de partición y si está activa o no. Mas adelante veremos para que sirve cada dato. Existe un parámetro, no documentado del FDISK, el parámetro /MBR que si ejecutamos un FDISK /MBR, restaura este miniprograma (que muchas veces, es evidente que es la "golosina" de los virus). Y es la única manera de desinfectar un disco infectado con algún virus que afecte al MBR. El format NO LIMPIA este virus, ya que el FORMAT no entiende de MBR, solo entiende de SU partición y el MBR, está por encima de las particiones. Posteriormente con FDISK, u otra utilidad similar de otro sistema operativo, procedemos a crear las particiones. FDISK solo nos dejará crear una primaria y si queda espacio o no le asignamos todo el espacio, una EXTENDIDA o secundaria. En la extendida podremos crear una especie de sub-particiones, son las unidades lógicas. Cada partición, tiene su propio registro de "boot", es decir otro miniprograma, que le que carga el miniprograma del MBR. Pero este registro de BOOT de la partición, ya es mas "listo", es capaz de buscar y cargar ya el inicio del sistema operativo real de la partición. Los sistemas operativos, al arrancar, asignan unas letras a las particiones. El orden de asignar estas letras es: primero y consecutivamente a todas las unidades primarias de TODOS los discos duros. Una vez que han finalizado las primarias, comienza por las secundarias, y allí va secuencialmente en cada secundaria para todas las unidades lógicas. Pongamos un ejemplo. Dos discos duros: 97

98 Página 98 de El primero con una partición primaria (p1) y una secundaria con dos unidades lógicas (s11 y s12). El segundo con una primaria (p2) y una secundaria con tres unidades lógicas (s21, s22 y s23). Entonces los discos nos quedarán: C: = p1 D: = p2 E: = s11 F: = s12 G: = s21 h: = s22 I: = s23 Y otra cosa: un FORMAT solo crea la estructura lógica de archivos en una partición. No limpia por tanto el MBR en donde podría residir un virus. Sí limpia el "boot" de la partición. Una vez entendido lo que es una partición, vamos a describir, un poco las características físicas de un disco. Es importante entender su funcionamiento porque nos ayudará a optimizar nuestro sistema con las particiones adecuadas en función del sistema de archivos utilizado FAT 16 o 32 (por ahora...). Y además nos ayudará a entender la velocidad de acceso y los recursos de memoria utilizados. Un disco es un plato con un recubrimiento magnético que gira a gran velocidad. En principio, aunque esto es mentira, supongamos que una determinada posición del disco está "imantada" y a esto le asignamos un 1 binario, o no, y entonces es un cero binario. El conjunto 8 de estos es un byte. Si los agrupamos en bloques de 512, es lo que se llama un sector, y es la mínima unidad de información en disco. Pero a nivel lógico, es verdad, la unidad mínima de información, es un sector, y es lo mínimo que podemos obtener en un acceso en lectura / escritura. Es un plato que gira, y una cabeza que se mueve transversal al plato y es capaz de posicionarse. En principio, aquí para la velocidad de lectura, ya vemos que nos influyen dos cosas, primero la velocidad de giro, segundo la velocidad con que la cabeza es capaz de ir desde el extremo exterior del plato, hasta el extremo inferior. Estas dos cosas, son lo que los fabricantes llaman "average" y "seek". Bueno, está un poco turbio, cada fabricante nos da los datos y las definiciones que le viene en gana. Pero eso es otra historia. 98

99 Página 99 de Con respecto al "average", pensemos, que si el sector que queremos leer, justo acaba de pasar por donde está la cabeza lectora, deberemos esperar una revolución completa del disco hasta que vuelva a pasar debajo de la cabeza. Con esto estamos viendo una cosa importantísima, depende de la velocidad de giro del disco, la rapidez con que podamos extraer los datos. Se llama "average", porque estadísticamente, los sectores que queramos leer, puede ser que acaben de pasar debajo de la cabeza y entonces tendremos que esperar una revolución completa. Puede ser que vayan justo a pasar y entonces tendremos los datos inmediatamente, y la "media" de esto es que los sectores estén a la mitad del giro. Entonces "puristamente", se define "average", como el tiempo que tarda un disco en dar "media" revolución. Bueno, después del rollo, lo importante: a más velocidad de giro, mas rápido obtendremos los datos. Los discos actuales van de 4200 vueltas a vueltas. Un IDE clásico, suele ser de 4200 e incluso los últimos de Los SCSI suelen ir de 7200 a Una vez que el sector esté en los chip de memoria del propio disco, y a la hora de pasarlos realmente al procesador, es cuando surgen los famosos métodos de PIO 0, a PIO 4 y DMA, y UDMA 1 y UDMA 2, este último, que es el que nos están vendiendo, teóricamente es el más rápido (33 Mbytes). Pero pensemos un poco, para que este dato se pase al procesador, lo debe tener el chip de memoria del disco, y para que lo tenga este chip, hemos de esperar media revolución de giro del disco. Es decir en infinitamente más lenta la transferencia desde el soporte físico que la que "teóricamente" nos pueda dar luego entre chip y procesador. Con lo anterior, quiero decir que un disco que girase a vueltas y tenga un método de acceso lento (PIO 4), sigue siendo bastante mas rapido que un disco de 4000 vueltas con UDMA 2. Con respecto a los SCSI, nos sucede parecido. Mucha controladora UltraWide de 80 Mbytes por segundo, que como tengamos un disco de 4000 vueltas, vamos listos!. O sea, que nos pueden engañar por donde quieran. Una de las preguntas más importantes al comprar un disco, es a cuantas vueltas gira?. Esto es debido, a que el "average", y el "seek", a pesar de la definición que yo he dado, cada fabricante se "inventa" la suya propia, y no he encontrado un libro "serio" que sea capaz de definirlo con claridad. 99

100 Página 100 de 1. Función de un disco duro Un disco duro es un dispositivo que permite el almacenamiento y recuperación de grandes cantidades de información. Los discos duros forman el principal elemento de la memoria secundaria de un ordenador, llamada así en oposición a la memoria principal o memoria RAM (Random Access Memory, memoria de acceso aleatorio). Tanto los discos duros como la memoria principal son memorias de trabajo (varían su contenido en una sesión con el ordenador). Sin embargo, presentan importantes diferencias: la memoria principal es volátil (su contenido se borra al apagar el ordenador), muy rápida (ya que se trata de componentes electrónicos) pero de capacidad reducida. La memoria secundaria, en cambio, es no volátil, menos rápida (componentes mecánicos) y de gran capacidad. La memoria principal contiene los datos utilizados en cada momento por el ordenador pero debe recurrir a la memoria secundaria cuando necesite recuperar nuevos datos o almacenar de forma permanente los que hayan variado. 2. Estructura física de un disco duro Elementos de un disco duro Un disco duro forma una caja herméticamente cerrada que contiene dos elementos no intercambiables: la unidad de lectura y escritura y el disco como tal. La unidad es un conjunto de componentes electrónicos y mecánicos que hacen posible el almacenamiento y recuperación de los datos en el disco. 100

101 Página 101 de El disco es, en realidad, una pila de discos, llamados platos, que almacenan información magnéticamente. Cada uno de los platos tiene dos superficies magnéticas: la superior y la inferior. Estas superficies magnéticas están formadas por millones de pequeños elementos capaces de ser magnetizados positiva o negativamente. De esta manera, se representan los dos posibles valores que forman un bit de información (un cero o un uno). Ocho bits contiguos constituyen un byte (un carácter). Funcionamiento de una unidad de disco duro Veamos cuáles son los mecanismos que permiten a la unidad acceder a la totalidad de los datos almacenados en los platos. En primer lugar, cada superficie magnética tiene asignado uno de los cabezales de lectura/escritura de la unidad. Por tanto, habrá tantos cabezales como caras tenga el disco duro y, como cada plato tiene dos caras, este número equivale al doble de platos de la pila. El conjunto de cabezales se puede desplazar linealmente desde el exterior hasta el interior de la pila de platos mediante un brazo mecánico que los transporta. Por último, para que los cabezales tengan acceso a la totalidad de los datos, es necesario que la pila de discos gire. Este giro se realiza a velocidad constante y no cesa mientras esté encendido el ordenador. En cambio, en los discos flexibles sólo se produce el giro mientras se está efectuando alguna operación de lectura o escritura. El resto del tiempo, la disquetera permanece en reposo. Con las unidades de CD-ROM ocurre algo similar, sin embargo en este caso la velocidad de giro no es constante y depende de la distancia al centro del dato que se esté leyendo. 101

102 Página 102 de Cada vez que se realiza una operación de lectura en el disco duro, éste tiene que realizar las siguientes tareas: desplazar los cabezales de lectura/escritura hasta el lugar donde empiezan los datos; esperar a que el primer dato, que gira con los platos, llegue al lugar donde están los cabezales; y, finalmente, leer el dato con el cabezal correspondiente. La operación de escritura es similar a la anterior. Estructura física: cabezas, cilindros y sectores Ya hemos visto que cada una de las dos superficies magnéticas de cada plato se denomina cara. El número total de caras de un disco duro coincide con su número de cabezas. Cada una de estas caras se divide en anillos concéntricos llamados pistas. En los discos duros se suele utilizar el término cilindro para referirse a la misma pista de todos los discos de la pila. Finalmente, cada pista se divide en sectores. 102

103 Página 103 de Los sectores son las unidades mínimas de información que puede leer o escribir un disco duro. Generalmente, cada sector almacena 512 bytes de información. El número total de sectores de un disco duro se puede calcular: nº sectores = nº caras * nº pistas/cara * nº sectores/pista. Por tanto, cada sector queda unívocamente determinado si conocemos los siguientes valores: cabeza, cilindro y sector. Por ejemplo, el disco duro ST33221A de Seagate tiene las siguientes especificaciones: cilindros = 6.253, cabezas = 16 y sectores = 63. El número total de sectores direccionables es, por tanto, 6.253*16*63 = sectores. Si cada sector almacena 512 bytes de información, la capacidad máxima de este disco duro será de sectores * 512 bytes/sector = bytes ~ 3 GB. Las cabezas y cilindros comienzan a numerarse desde el cero y los sectores desde el uno. En consecuencia, el primer sector de un disco duro será el correspondiente a la cabeza 0, cilindro 0 y sector

104 Página 104 de 3. Estructura lógica de un disco duro La estructura lógica de un disco duro está formada por: El sector de arranque (Master Boot Record) Espacio particionado Espacio sin particionar El sector de arranque es el primer sector de todo disco duro (cabeza 0, cilindro 0, sector 1). En él se almacena la tabla de particiones y un pequeño programa master de inicialización, llamado también Master Boot. Este programa es el encargado de leer la tabla de particiones y ceder el control al sector de arranque de la partición activa. Si no existiese partición activa, mostraría un mensaje de error. El espacio particionado es el espacio del disco que ha sido asignado a alguna partición. El espacio no particionado, es espacio no accesible del disco ya que todavía no ha sido asignado a ninguna partición. A continuación se muestra un ejemplo de un disco duro con espacio particionado (2 particiones primarias y 2 lógicas) y espacio todavía sin particionar. 104

105 Página 105 de El caso más sencillo consiste en un sector de arranque que contenga una tabla de particiones con una sola partición, y que esta partición ocupe la totalidad del espacio restante del disco. En este caso, no existiría espacio sin particionar. 4. Las particiones Cada disco duro constituye una unidad física distinta. Sin embargo, los sistemas operativos no trabajan con unidades físicas directamente sino con unidades lógicas. Dentro de una misma unidad física de disco duro puede haber varias unidades lógicas. Cada una de estas unidades lógicas constituye una partición del disco duro. Esto quiere decir que podemos dividir un disco duro en, por ejemplo, dos particiones (dos unidades lógicas dentro de una misma unidad física) y trabajar de la misma manera que si tuviésemos dos discos duros (una unidad lógica para cada unidad física). Particiones y directorios. Ambas estructuras permiten organizar datos dentro de un disco duro. Sin embargo, presentan importantes diferencias: 1ª) Las particiones son divisiones de tamaño fijo del disco duro; los directorios son divisiones de tamaño variable de la partición; 2ª) Las particiones ocupan un grupo de cilindros contiguos del disco duro (mayor seguridad); los directorios suelen tener su información desperdigada por toda la partición; 3ª) Cada partición del disco duro puede tener un sistema de archivos 105

106 Página 106 de (sistema operativo) distinto; todos los directorios de la partición tienen el sistema de archivos de la partición. Como mínimo, es necesario crear una partición para cada disco duro. Esta partición puede contener la totalidad del espacio del disco duro o sólo una parte. Las razones que nos pueden llevar a crear más de una partición por disco se suelen reducir a tres. 1. Razones organizativas. Considérese el caso de un ordenador que es compartido por dos usuarios y, con objeto de lograr una mejor organización y seguridad de sus datos deciden utilizar particiones separadas. 2. Instalación de más de un sistema operativo. Debido a que cada sistema operativo requiere (como norma general) una partición propia para trabajar, si queremos instalar dos sistemas operativos a la vez en el mismo disco duro (por ejemplo, Windows 98 y Linux), será necesario particionar el disco. 3. Razones de eficiencia. Por ejemplo, suele ser preferible tener varias particiones FAT pequeñas antes que una gran partición FAT. Esto es debido a que cuanto mayor es el tamaño de una partición, mayor es el tamaño del grupo (cluster) y, por consiguiente, se desaprovecha más espacio de la partición. Más adelante, explicaremos esto con mayor detalle. Las particiones pueden ser de dos tipos: primarias o lógicas. Las particiones lógicas se definen dentro de una partición primaria especial denominada partición extendida. En un disco duro sólo pueden existir 4 particiones primarias (incluida la partición extendida, si existe). Las particiones existentes deben inscribirse en una tabla de particiones de 4 entradas situada en el primer sector de todo disco duro. De estas 4 entradas de la tabla puede que no esté utilizada ninguna (disco duro sin particionar, tal y como viene de fábrica) o que estén utilizadas una, dos, tres o las cuatro entradas. En cualquiera de estos últimos casos (incluso cuando sólo hay una partición), es necesario que en la tabla de particiones figure una de ellas como partición activa. La partición activa es aquella a la que el programa de inicialización (Master Boot) cede el control al arrancar. El sistema operativo de la partición activa será el que se cargue al arrancar desde el disco duro. Más adelante veremos distintas formas de elegir el sistema operativo que queremos arrancar, en caso de tener varios instalados, sin variar la partición activa en cada momento. 106

107 Página 107 de De todo lo anterior se pueden deducir varias conclusiones: Para que un disco duro sea utilizable debe tener al menos una partición primaria. Además para que un disco duro sea arrancable debe tener activada una de las particiones y un sistema operativo instalado en ella. Más adelante, se explicará en detalle la secuencia de arranque de un ordenador. Esto quiere decir que el proceso de instalación de un sistema operativo en un ordenador consta de la creación de su partición correspondiente, instalación del sistema operativo (formateo de la partición y copia de archivos) y activación de la misma. De todas maneras, es usual que este proceso esté guiado por la propia instalación. Un disco duro no arrancará si no se ha definido una partición activa o si, habiéndose definido, la partición no es arrancable (no contiene un sistema operativo). Hemos visto antes que no es posible crear más de cuatro particiones primarias. Este límite, ciertamente pequeño, se logra subsanar mediante la creación de una partición extendida (como máximo una). Esta partición ocupa, al igual que el resto de las particiones primarias, una de las cuatro entradas posibles de la tabla de particiones. Dentro de una partición extendida se pueden definir particiones lógicas sin límite. El espacio de la partición extendida puede estar ocupado en su totalidad por particiones lógicas o bien, tener espacio libre sin particionar. Veamos el mecanismo que se utiliza para crear la lista de particiones lógicas. En la tabla de particiones del Master Boot Record debe existir una entrada con una partición extendida (la cual no tiene sentido activar). Esta entrada apunta a una nueva tabla de particiones similar a la ya estudiada, de la que sólo se utilizan sus dos primeras entradas. La primera entrada corresponde a la primera partición lógica; la segunda, apuntará a una nueva tabla de particiones. Esta nueva tabla contendrá en su primera entrada la segunda partición lógica y en su segunda, una nueva referencia a otra tabla. De esta manera, se va creando una cadena de tablas de particiones hasta llegar a la última, identificada por tener su segunda entrada en blanco. Particiones primarias y particiones lógicas Ambos tipos de particiones generan las correspondientes unidades lógicas del ordenador. Sin embargo, hay una diferencia importante: sólo las particiones primarias se pueden activar. Además, algunos sistemas operativos no pueden acceder a particiones primarias distintas a la suya. 107

108 Página 108 de Lo anterior nos da una idea de qué tipo de partición utilizar para cada necesidad. Los sistemas operativos deben instalarse en particiones primarias, ya que de otra manera no podrían arrancar. El resto de particiones que no contengan un sistema operativo, es más conveniente crearlas como particiones lógicas. Por dos razones: primera, no se malgastan entradas de la tabla de particiones del disco duro y, segunda, se evitan problemas para acceder a estos datos desde los sistemas operativos instalados. Las particiones lógicas son los lugares ideales para contener las unidades que deben ser visibles desde todos los sistemas operativos. Algunos sistemas operativos presumen de poder ser instalados en particiones lógicas (Windows NT), sin embargo, esto no es del todo cierto: necesitan instalar un pequeño programa en una partición primaria que sea capaz de cederles el control. Estructura lógica de las particiones Dependiendo del sistema de archivos utilizado en cada partición, su estructura lógica será distinta. En los casos de MS-DOS y Windows 95, está formada por sector de arranque, FAT, copia de la FAT, directorio raíz y área de datos. De todas formas, el sector de arranque es un elemento común a todos los tipos de particiones. Todas las particiones tienen un sector de arranque (el primero de la partición) con información relativa a la partición. Si la partición tiene instalado un sistema operativo, este sector se encargará de arrancarlo. Si no hubiese ningún sistema operativo (como es el caso de una partición para datos) y se intentara arrancar, mostraría un mensaje de error. 5. Secuencia de arranque de un ordenador Todos los ordenadores disponen de un pequeño programa almacenado en memoria ROM (Read Only Memory, memoria de sólo lectura), encargado de tomar el control del ordenador en el momento de 108

109 Página 109 de encenderlo. Lo primero que hace el programa de arranque es un breve chequeo de los componentes hardware. Si todo está en orden, intenta el arranque desde la primera unidad física indicada en la secuencia de arranque. Si el intento es fallido, repite la operación con la segunda unidad de la lista y así hasta que encuentre una unidad arrancable. Si no existiese ninguna, el programa de arranque mostraría una advertencia. Esta secuencia de arranque se define en el programa de configuración del ordenador (también llamado Setup, CMOS o BIOS). Lo usual es acceder a este programa pulsando la tecla Suprimir mientras se chequea la memoria RAM, sin embargo su forma de empleo depende del modelo del ordenador. Por ejemplo, la secuencia A:, C: indica que primero se intentará arrancar desde la disquetera y si no fuera posible, desde el primer disco duro. Nota: Normalmente los programas de configuración utilizan la siguiente nomenclatura: la unidad A: es la primera unidad de disquete; B:, la segunda; C:, el primer disco duro; y D:, el segundo. Suponiendo que arrancamos desde el disco duro, el programa de arranque de la ROM cederá el control a su programa de inicialización (Master Boot). Este programa buscará en la tabla de particiones la partición activa y le cederá el control a su sector de arranque. El programa contenido en el sector de arranque de la partición activa procederá al arranque del sistema operativo. Algunas aclaraciones: Cuando compramos un disco duro nuevo, éste viene sin particionar. Esto significa que el disco duro no es arrancable y hay que configurarlo desde un disquete (o un CD-ROM). Para ello es necesario establecer la secuencia de arranque de manera que esté la disquetera antes que el disco duro (de lo contrario puede no lograrse el arranque). Por el contrario, si la secuencia de arranque es C:, A: y el disco duro es ya arrancable, no será posible arrancar desde un disquete, ya que ni siquiera lo leerá. 6. Sistemas de archivos Un sistema de archivos es una estructura que permite tanto el almacenamiento de información en una partición como su modificación y recuperación. Para que sea posible trabajar en una partición es necesario asignarle previamente un sistema de archivos. Esta operación se denomina dar formato a una partición. 109

110 Página 110 de Generalmente cada sistema de archivos ha sido diseñado para obtener el mejor rendimiento con un sistema operativo concreto (FAT para DOS, FAT32 para Windows 98, NTFS para Windows NT, HPFS para OS/2 ). Sin embargo, es usual que el mismo sistema operativo sea capaz de reconocer múltiples sistemas de archivos. A continuación se comentan los sistemas de archivos más comunes. FAT (File Allocate Table, tabla de asignación de archivos) Este sistema de archivos se basa, como su nombre indica, en una tabla de asignación de archivos o FAT. Esta tabla es el índice del disco. Almacena los grupos utilizados por cada archivo, los grupos libres y los defectuosos. Como consecuencia de la fragmentación de archivos, es corriente que los distintos grupos que contienen un archivo se hallen desperdigados por toda la partición. La FAT es la encargada de seguir el rastro de cada uno de los archivos por la partición. Grupo. Un grupo, cluster o unidad de asignación es la unidad mínima de almacenamiento de un archivo en una partición y está formada por uno o varios sectores contiguos del disco. Esto quiere decir que el espacio real ocupado por un archivo en disco será siempre múltiplo del tamaño del grupo. Además, cada grupo puede almacenar información de un solo archivo. Si no cabe en un solo grupo, se utilizarán varios (no necesariamente contiguos). Para hacernos una idea del nefasto resultado de un tamaño de grupo incorrecto, consideremos dos archivos de 1 byte cada uno. Si el tamaño del grupo es de 32 KB, se utilizarán dos grupos y el espacio real ocupado en disco habrá sido de 64 KB = bytes! en vez de 2 bytes, como sería de esperar. Este sistema posee importantes limitaciones: nombres de archivos cortos; tamaño máximo de particiones de 2 GB; grupos (clusters) demasiados grades, con el consiguiente desaprovechamiento de espacio en disco; elevada fragmentación, que ralentiza el acceso a los archivos. Pero tiene a su favor su sencillez y compatibilidad con la mayoría de sistemas operativos. Debido a que la FAT de este sistema de archivos tiene entradas de 16 bits (por eso, a veces se llama FAT16), sólo se pueden utilizar 2 16 = grupos distintos. Esto implica que, con el fin de aprovechar la totalidad del espacio de una partición, los grupos tengan tamaños distintos en función del tamaño de la partición. Por ejemplo, con un 110

111 Página 111 de grupo de 16 KB se puede almacenar hasta 2 16 grupos * 16 KB/grupo = 2 20 KB = 1 GB de información. El límite de la partición (2 GB) se obtiene al considerar un grupo máximo de 32 KB (formado por 64 sectores consecutivos de 512 bytes). VFAT (Virtual FAT) Este sistema de archivos logra remediar uno de los mayores problemas del sistema FAT: los nombres de archivos y directorios sólo podían contener 8 caracteres de nombre y 3 de extensión. Con VFAT, se logra ampliar este límite a 255 caracteres entre nombre y extensión. La mayor ventaja de VFAT es que tiene plena compatibilidad con FAT. Por ejemplo, es factible utilizar la misma partición para dos sistemas operativos que utilicen uno FAT y otro VFAT (MS-DOS y Windows 95). Cuando entremos desde MS-DOS, los nombres largos de archivos se transforman en nombres cortos según unas reglas establecidas, y pueden ser utilizados de la manera habitual. De todas maneras, hay que prestar cierta atención cuando se trabaja desde MS-DOS con archivos que tienen nombres largos: no se deben realizar operaciones de copiado o borrado, ya que se corre el riesgo de perder el nombre largo del archivo y quedarnos sólo con el corto. Desde Windows 95, se trabaja de forma transparente con nombres cortos y largos. Tanto las particiones FAT como las VFAT están limitadas a un tamaño máximo de 2 GB. Esta es la razón por la que los discos duros mayores de este tamaño que vayan a trabajar con alguno de los dos sistemas, necesiten ser particionados en varias particiones más pequeñas. El sistema de arhivos FAT32 ha sido diseñado para aumentar este límite a 2 TB (1 terabyte = 1024 GB). FAT32 (FAT de 32 bits) El sistema FAT32 permite trabajar con particiones mayores de 2 GB. No solamente esto, sino que además el tamaño del grupo (cluster) es mucho menor y no se desperdicia tanto espacio como ocurría en las particiones FAT. La conversión de FAT a FAT32, se puede realizar desde el propio sistema operativo Windows 98, o bien desde utilidades como Partition Magic. Sin embargo, la conversión inversa no es posible desde Windows 98, aunque sí desde Partition Magic. Hay que tener en cuenta que ni MS-DOS ni las primeras versiones de Windows 95 pueden acceder a los datos almacenados en una partición FAT32. Esto quiere decir que si tenemos en la misma partición instalados MS-DOS y Windows 98, al realizar la conversión a FAT32 111

112 Página 112 de perderemos la posibilidad de arrancar en MS-DOS (opción "Versión anterior de MS-DOS" del menú de arranque de Windows 98). Con una conversión inversa se puede recuperar esta opción. Por estos motivos de incompatibilidades, no es conveniente utilizar este sistema de archivos en particiones que contengan datos que deban ser visibles desde otros sistemas de archivos. En los demás casos, suele ser la opción más recomendable. En la siguiente tabla, se comparan los tamaños de grupo utilizados según el tamaño de la partición y el sistema de archivos empleado: Tamaño de la partición Tamaño del cluster FAT < 128 MB 2 KB 128 MB MB 4 KB 256 MB MB 8 KB 512 MB - 1 GB 16 KB 1 GB - 2 GB 32 KB 2 GB - 8 GB FAT32 No soportado 4 KB 8 GB - 16 GB 8 KB No soportado 16 GB - 32 GB 16 KB 32 GB - 2 TB 32 KB NTFS (New Technology File System, sistema de archivos de nueva tecnología) Este es el sistema de archivos que permite utilizar todas las características de seguridad y protección de archivos de Windows NT. NTFS sólo es recomendable para particiones superiores a 400 MB, ya que las estructuras del sistema consumen gran cantidad de espacio. NTFS permite definir el tamaño del grupo (cluster), a partir de 512 bytes (tamaño de un sector) de forma independiente al tamaño de la partición. Las técnicas utilizadas para evitar la fragmentación y el menor desaprovechamiento del disco, hacen de este sistema de archivos el 112

113 Página 113 de sistema ideal para las particiones de gran tamaño requeridas en grandes ordenadores y servidores. HPFS (High Performance File System, sistema de archivos de alto rendimiento) HPFS es el sistema de archivos propio de OS/2. Utiliza una estructura muy eficiente para organizar los datos en las particiones. HPFS no utiliza grupos sino directamente sectores del disco (que equivalen a un grupo de 512 bytes). En vez de utilizar una tabla FAT al principio de la partición, emplea unas bandas distribuidas eficazmente por toda la partición. De esta forma se consigue, suprimir el elevado número de movimientos que los cabezales de lectura/escritura tienen que realizar a la tabla de asignación en una partición FAT. El resultado de este sistema es una mayor velocidad de acceso y un menor desaprovechamiento del espacio en disco. MS-DOS (y Windows 3.1) reconoce únicamente particiones FAT; Windows 95 admite tanto particiones FAT como VFAT; Windows 98 y Windows 95 OSR2 soportan FAT, VFAT y FAT32; Windows NT 4.0 admite particiones FAT, VFAT y NTFS; el futuro Windows 2000 dará soporte a las particiones FAT, VFAT, FAT32 y NTFS; Linux admite su propio sistema de archivos y, dependiendo de las versiones, la mayoría de los anteriores. 7. Arranque específico de cada sistema operativo MS-DOS, Windows 95 y Windows 98 Los sistemas operativos MS-DOS y Windows 9x, necesitan arrancar desde una partición primaria ubicada en la primera unidad física de disco duro. Además, la instalación de estos sistemas operativos en particiones que comiencen después de los primeros 528 MB del disco duro, puede impedir que arranquen. Según lo anterior, el lugar para situar la partición se ve reducida a los primeros 528 MB del primer disco duro. Este límite imposibilita entonces la instalación de varios sistemas operativos basados en FAT en particiones mayores de este tamaño. De todas maneras, algunos gestores de arranque (o la propia BIOS del ordenador) son capaces de cambiar la asignación de discos duros de forma que el primero sea el segundo y el segundo, el primero: en este caso particular sí sería posible arrancar una partición FAT desde una segunda unidad física. Windows NT 113

114 Página 114 de Windows NT puede arrancar desde cualquier disco duro, ya sea desde una partición primaria o desde una partición lógica. Sin embargo, en el caso de que se instale en una partición lógica o en un disco duro distinto al primero, es necesario que el gestor de arranque de Windows NT se instale en una partición primaria del primer disco duro. Si tenemos ya instalado otro sistema operativo MS-DOS o Windows 9x, Windows NT instalará su gestor de arranque en el sector de arranque de la partición del anterior sistema operativo. Este gestor de arranque permitirá arrancar tanto el anterior sistema operativo como Windows NT (ya esté en una partición lógica o en otro disco duro). Linux Linux, al igual que Windows NT, puede instalarse en una partición primaria o en una partición lógica, en cualquiera de los discos duros. Si la instalación no se realiza en una partición primaria del primer disco duro, es necesario instalar un gestor de arranque. Linux proporciona un potente (aunque poco intuitivo) gestor de arranque llamado LILO. Las posibilidades de instalación son dos: instalarlo en la partición de Linux o en el sector de arranque del disco duro (Master Boot Record). La primera opción es preferible si Linux se instala en una partición primaria del primer disco duro (debe ser la partición activa) junto a otro sistema operativo. Para el resto de los casos, no queda más remedio que instalarlo en el Master Boot del primer disco duro. Desde aquí es capaz de redirigir el arranque incluso a una partición lógica (que, como sabemos, no se pueden activar) que contenga Linux. Nótese que, en este caso, si borramos la partición de Linux el gestor de arranque LILO seguirá apareciendo (ya que está antes de acceder a cualquier partición). La única manera de desinstalarlo si no podemos hacerlo desde el propio Linux, consiste en restaurar el sector de arranque original. Esto se puede lograr desde MS-DOS con la orden indocumentada FDISK /MBR. Otra advertencia más: algunas distribuciones de Linux (como Red Hat) no respetan el espacio libre de una partición extendida. Esto significa que hay que tener cuidado de no solapar una partición primaria de Linux con espacio libre de la partición extendida. En todos los casos anteriores, cuando se habla de instalar un sistema operativo en una partición primaria se asume que ésta tiene que estar activada a no ser que se utilice un gestor de arranque. En este caso, si el gestor de arranque se instala en una partición, ésta deberá activarse; pero si se instala en el sector de arranque del disco duro, la partición activa será indiferente. 114

115 Página 115 de 8. Consejos a la hora de crear particiones Qué partición elegir? La principal decisión que debemos tomar a la hora de crear una partición es elegir entre primaria o lógica. Recordemos que las particiones lógicas deben ser creadas dentro de una partición primaria especial denominada partición extendida. Ya hemos visto que la mejor política que podemos seguir es utilizar, en la medida de lo posible, antes las particiones lógicas que las primarias: podemos crear un número indefinido de particiones lógicas pero sólo cuatro particiones primarias (contando la extendida). Las particiones primarias suelen ser el lugar ideal para instalar sistemas operativos, ya que son las únicas que se pueden activar. Los sistemas operativos MS-DOS, Windows 95 y Windows 98 sólo pueden ser instalados en particiones primarias. Y aunque Windows NT, Linux y OS/2 puedan ser instalados en particiones lógicas, puede que ésta no sea siempre la opción más acertada. La razón es que es necesario instalar algún gestor de arranque, ya sea en el sector de arranque del disco duro o en el de alguna partición primaria. Si no deseamos alterar ninguna de las particiones primarias existentes ni el sector de arranque, la única opción es realizar una instalación en una partición primaria del primer disco duro. Dónde situar la partición? Debido a que MS-DOS y Windows 9x presentan problemas al instalarse detrás de los primeros 528 MB del disco duro, es preferible crear sus particiones al principio del disco duro (o lo antes posible, sin superar este límite). Los demás sistemas operativos, en caso de haberlos, se instalarán entonces a continuación. Generalmente suele ser más acertado instalar los sistemas operativos en el primer disco duro. Sin embargo, debido a la flexibilidad de Linux o Windows NT podemos inclinarnos por otras opciones dependiendo de la configuración actual de nuestro equipo. Cuántas particiones crear? Algunos usuarios prefieren separar los sistemas operativos, programas y datos en sus correspondientes particiones. Esto puede aportar una mayor robustez al sistema, ya que la corrupción de los archivos del sistema operativo o los programas no afectan a los datos. Además, si utilizamos particiones separadas para los sistemas operativos y los 115

116 Página 116 de programas, nos facilita la utilización de los mismos programas desde distintos sistemas operativos. Por ejemplo, una partición lógica FAT para programas permitiría ejecutar los mismos programas desde Windows NT (instalado en una partición NTFS) o desde Windows 98 (instalado en una partición FAT32). Pero esta disposición del disco duro aumenta su complejidad (un mayor número de unidades) y obliga a calcular a priori el tamaño de cada partición. Como ya dijimos anteriormente, las únicas particiones que deben ser primarias son las de los sistemas operativos, el resto serán lógicas. Una opción intermedia consiste en separar los archivos del sistema (sistema operativo y programas) de nuestros datos. De esta manera, no se utilizan tantas unidades aunque sí se ofrece una mayor seguridad y organización para nuestros datos. De qué tamaño? Nos quedan por comentar las razones de eficiencia que nos pueden llevar a crear nuevas particiones. Para evitar desperdiciar el menor espacio posible con particiones FAT o VFAT, conviene que tengan un tamaño lo menor posible (recordemos que el tamaño del grupo depende del tamaño de la partición). Sin embargo, el aumento del número de particiones, aunque sea más eficiente, hace más complejo nuestro sistema. Debemos buscar entonces un compromiso entre el número de particiones creadas y el tamaño del grupo (cluster) empleado en cada una de ellas. Veamos unos ejemplos (en todos ellos suponemos que deseamos trabajar únicamente en Windows 95 con particiones FAT): si tenemos un disco duro de 2,5 GB y, ya que el máximo de una partición FAT es 2 GB, es más eficiente crear una de 1 GB (grupo de 16 KB) y otra de 1,5 GB (grupo de 32 KB) que dos de 1,25 GB (grupo de 32 KB); si tenemos un disco duro de 3 GB, es igualmente más eficiente una de 1 GB (16 KB) y otra de 2 GB (32 KB) que dos de 1,5 GB (32 KB), aunque en razones de eficiencia sería mucho mejor 3 de 1 GB (16 KB); por último, si tenemos un poco más de 1 GB libre en el disco duro es preferible crear una partición que utilice un grupo de 16 KB, aunque quede espacio sin particionar, que una de 32 KB que ocupe la totalidad del espacio, ya que a la larga el desaprovechamiento sería mayor. Problemas con las letras de unidades: orden de las particiones Cuando se realizan cambios en las particiones, hay que considerar los posibles efectos que esto puede desencadenar en la asignación de letras 116

117 Página 117 de de unidades. Los sistemas operativos MS-DOS y Windows 9x utilizan la letra C para la unidad del sistema operativo. Al resto de unidades visibles se les asigna letra en el siguiente orden: particiones primarias detrás de la actual, particiones primarias de los siguientes discos duros, particiones lógicas de la unidad actual, particiones lógicas de los siguientes discos duros, particiones primarias anteriores a la actual y, por último, el resto de unidades físicas (como la unidad lectora de CD- ROM). Unidades visibles. Son las unidades que se pueden ver desde un sistema operativo, es decir, aquellas que utilizan un sistema de archivos reconocido por el sistema operativo. Las particiones con un sistema de archivos incompatible con el sistema operativo no son accesibles (es como si no existiesen). La única letra que se puede cambiar manualmente es la del CD-ROM, el resto de letras son asignadas automáticamente sin posibilidad de cambio. En ocasiones es preferible asignar una letra alta (por ejemplo la R) a la unidad de CD-ROM ya que así no se ve afectada por los posibles cambios de configuración en las particiones. Para cambiar la letra del CD-ROM en MS-DOS es necesario modificar la línea del AUTOXEC.BAT que contenga la orden MSCDEX y añadir al final el modificador /L:unidad, donde unidad es la letra que deseamos asignar. Si no hay suficientes letras de unidades disponibles (por defecto sólo están permitidas hasta la D), es necesario añadir la siguiente línea al CONFIG.SYS: LASTDRIVE=Z. En este caso, se han definido todas las letras posibles de unidades (hasta la Z). En Windows 95 o Windows 98, elegimos Sistema del Panel de Control; seleccionamos la segunda ficha (Administrador de dispositivos); hacemos clic en el signo más a la izquierda de CD-ROM; hacemos doble clic sobre nuestra unidad de CD-ROM; y, finalmente, en el campo Letra de la primera unidad de la ficha Configuración, seleccionamos la letra que deseamos asignar a la unidad de CD-ROM. 117

118 Página 118 de Windows NT, permite la asignación dinámica de letras de unidad mediante el Administrador de discos. En Windows NT, la primera letra de unidad es la primera partición primaria del primer disco duro, por lo que puede ocurrir que la propia partición de Windows NT no sea la C. Linux carece de estos problemas ya que no trabaja con letras de unidad sino con discos duros físicos (hda, hdb, hdc y hdd) y particiones según el lugar que ocupan en la tabla de particiones (hda1, hda2, hda3 ). Para evitar que las mismas particiones tengan asignadas distintas letras conviene colocar primero las particiones reconocidas por más sistemas operativos (FAT) y por último las más específicas (como NTFS o la de Linux). 9. Trabajar con varios sistemas operativos Si instalamos varios sistemas operativos en el mismo ordenador, debemos tener una manera eficiente de arrancar con cada uno de ellos. Una posibilidad poco acertada consiste en activar cada vez la partición 118

Tecnología de la Información y las Comunicaciones. Colegio Bosque Del Plata. UNIDAD 6 Hardware Procesador y Unidades de Almacenamiento.

Tecnología de la Información y las Comunicaciones. Colegio Bosque Del Plata. UNIDAD 6 Hardware Procesador y Unidades de Almacenamiento. Colegio Bosque Del Plata Tecnología de la Información y las Comunicaciones UNIDAD 6 Hardware Procesador y Unidades de Almacenamiento. E-mail: garcia.fernando.j@gmail.com Profesor: Fernando J. Garcia Ingeniero

Más detalles

Ejemplos de una tarjeta Madre o Principal:

Ejemplos de una tarjeta Madre o Principal: Tarjeta Madre o Principal La Tarjeta Madre, también conocida como Tarjeta Principal, Mainboard, Motherboard, etc. es el principal y esencial componente de toda computadora, ya que allí donde se conectan

Más detalles

A continuación se mencionan en orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base. ISA

A continuación se mencionan en orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base. ISA González Duarte Daniel Computación Gráfica Fecha de Entrega: 18.Feb.2008 Tarea 3: Buses Interfaces de tarjeta de video con la placa base: A continuación se mencionan en orden cronológico, los sistemas

Más detalles

Chipsets página 1 CONJUNTO DE CHIPS PARA SOCKET 7

Chipsets página 1 CONJUNTO DE CHIPS PARA SOCKET 7 Chipsets página 1 El conjunto de chips, o chipset, es un elemento formado por un determinado número de circuitos integrados en el que se han incluido la mayoría de los componentes que dotan a un ordenador

Más detalles

Fundamentos de Computadores

Fundamentos de Computadores Universidad de Murcia Facultad de Informática TÍTULO DE GRADO EN INGENIERÍA INFORMÁTICA Tema 4: Introducción a la arquitectura de computadores Boletines de prácticas y ejercicios CURSO 2011 / 12 Departamento

Más detalles

Tarjeta Principal. Disco Duro. Memoria RAM. Procesador. Fuente de Poder. Tarjetas de Expansión. Jair Acosta Núñez

Tarjeta Principal. Disco Duro. Memoria RAM. Procesador. Fuente de Poder. Tarjetas de Expansión. Jair Acosta Núñez Tarjeta Principal Disco Duro Memoria RAM Procesador Fuente de Poder Tarjetas de Expansión Jair Acosta Núñez También se le puede llamar Board, Mainboard, MotherBoard y Tarjeta Madre. Es una tarjeta interna

Más detalles

Montaje y Reparación de Sistemas Microinformáticos

Montaje y Reparación de Sistemas Microinformáticos Montaje y Reparación de Sistemas Microinformáticos es una gran placa electrónica que integra decenas de circuitos y chips ideados para interconectar todos los componentes hardware internos del PC. Para

Más detalles

MOTHERBOARD MANTENIMEINTO DE COMPUTO 2014 SENA SEVINNE MACHADO VIVAS

MOTHERBOARD MANTENIMEINTO DE COMPUTO 2014 SENA SEVINNE MACHADO VIVAS MOTHERBOARD MANTENIMEINTO DE COMPUTO 2014 SENA SEVINNE MACHADO VIVAS ENTONCES SI TENEMOS TANTAS MARCAS CUALES SON LAS MEJORES? O CUÁL DEBEMOS ACONSEJAR COMPRAR? PLACAS BASES/MOTHER BOARDS DE ALTA

Más detalles

Guía Nro. 2 de Arquitectura del Computador TI - PI

Guía Nro. 2 de Arquitectura del Computador TI - PI Guía Nro. 2 de Arquitectura del Computador TI - PI Al encender la computadora, el BIOS hace una comprobación del sistema, por ejemplo, para verificar la disponibilidad de discos duros instalados o el acceso

Más detalles

Taller de Operaciones Informáticas

Taller de Operaciones Informáticas Taller de Operaciones Informáticas Unidad 1: Componentes Físicos de un Sistema Informático 4- Qué es el motherboard? Identificar modelos, y elementos conectados sobre ella. Es la parte principal de una

Más detalles

Trabajo Practico Análisis placa madre

Trabajo Practico Análisis placa madre Trabajo Practico Análisis placa madre Facultad de Tecnología Informática Cátedra: OFC Comisión: 560 Integrantes: Alejo Julián Alfonso Profesor: Sergio Omar Aguilera Año: 1ero. Comentario [S1]: Muy bien.

Más detalles

Ordenador. Componentes internos (segunda parte) Autor: Editorial McGraw-Hill

Ordenador. Componentes internos (segunda parte) Autor: Editorial McGraw-Hill Ordenador. Componentes internos (segunda parte) Autor: Editorial McGraw-Hill 1 Presentación del curso Curso de informática sobre los componentes del ordenador. Arende a cerca del microprocesador del ordenador,

Más detalles

Qué es una Tarjetas Madre? El Procesador. Partes de una tarjeta madre. Tarjetas madres

Qué es una Tarjetas Madre? El Procesador. Partes de una tarjeta madre. Tarjetas madres Tarjetas madres 1. Qué es una Tarjetas Madre? 2. El Procesador 3. Partes de una tarjeta madre 4. Modelo de tarjeta madre, fabricante, características generales e imagen Qué es una Tarjetas Madre? Una tarjeta

Más detalles

T I P O S D E B O A R D

T I P O S D E B O A R D T I P O S D E B O A R D F U L L A T Es igual al diseño de la tarjeta madre IBM AT original. Son tarjetas de hasta 12 pulgadas de ancho y 13.8 pulgadas de largo o profundidad. El conector del teclado y

Más detalles

TEMA 1 ELEMENTOS DE UN ORDENADOR BLOQUE 1 HARDWARE

TEMA 1 ELEMENTOS DE UN ORDENADOR BLOQUE 1 HARDWARE TEMA 1 ELEMENTOS DE UN ORDENADOR BLOQUE 1 HARDWARE 2 ÍNDICE 1. y Software 2. Arquitectura básica de un ordenador 3. Componentes 1. Placa base 2. CPU 3. Almacenamiento 4. Otras tarjetas 5. Periféricos 4.

Más detalles

Elección De Componentes De Reemplazo Para Una PC

Elección De Componentes De Reemplazo Para Una PC Área y Sub-área: Informatica/Reparacion De PC Educador: _Luis Orozco Ciclo Escolar: 2015 Grado: 5to Secciones: A,B,C y D Elección De Componentes De Reemplazo Para Una PC Gabinete y fuente de energía Antes

Más detalles

TEMA 1. CONCEPTO DE ORDENADOR: ESTRUCTURA Y FUNCIONAMIENTO

TEMA 1. CONCEPTO DE ORDENADOR: ESTRUCTURA Y FUNCIONAMIENTO TEMA 1. CONCEPTO DE ORDENADOR: ESTRUCTURA Y FUNCIONAMIENTO 1.1 Introducción Los ordenadores necesitan para su funcionamiento programas. Sin un programa un ordenador es completamente inútil. Para escribir

Más detalles

Fundamentos de Computación e Informática Algoritmos Profesor : Fernando Espinoza S.

Fundamentos de Computación e Informática Algoritmos Profesor : Fernando Espinoza S. Fundamentos de Computación e Informática Algoritmos Profesor : Fernando Espinoza S. Objetivos Principales del Curso Comprender los sistemas computacionales modernos. Desarrollar la lógica de programación

Más detalles

TARJETA MADRE y sus PARTES

TARJETA MADRE y sus PARTES TARJETA MADRE y sus PARTES La tarjeta madre Es el componente principal de un computador personal. Debido a que todos los demás grupos de componentes y dispositivos periféricos son controlados a través

Más detalles

Tema 2.1. Hardware. Arquitectura básica

Tema 2.1. Hardware. Arquitectura básica Tema 2.1 Hardware. Arquitectura básica 1 Partes Fundamentales Partes Fundamentales: Unidad Central de Proceso Procesador Microprocesador CPU-UCP Memoria Principal: Memoria Central Placa Base Chipset Buses

Más detalles

2.6 Componentes Conectores. 2.6.1 Puertos serie y paralelos

2.6 Componentes Conectores. 2.6.1 Puertos serie y paralelos 2 2.6 Componentes Conectores 2.6.1 Puertos serie y paralelos 109 Un puerto de I/O es una ruta hacia y fuera de la computadora a través de un conector que se encuentra en su parte posterior. Todos los dispositivos

Más detalles

ESTRUCTURA INTERNA PC. Placa Base

ESTRUCTURA INTERNA PC. Placa Base ESTRUCTURA INTERNA PC Placa Base La placa base es un circuito impreso en donde se montan todos los componentes y sus interconexiones a manera de pistas (cobre adherido a la tarjeta). Básicamente es el

Más detalles

Dpto. de Electrónica 2º GM - EMTT. Tema 8 Buses, Puertos y Cables.

Dpto. de Electrónica 2º GM - EMTT. Tema 8 Buses, Puertos y Cables. Dpto. de Electrónica 2º GM - EMTT Tema 8 Buses, Puertos y Cables. Buses Definición: Es un conjunto de líneas de circuito impreso cuyo objetivo es unir los diferentes elementos de la placa base de forma

Más detalles

... partes internas del computador!...

... partes internas del computador!... ... partes internas del computador!... LOS DISPOSITIVOS INTERNOS UNA PC EN SI, PUEDE "DAR SEÑALES DE VIDA" SIN EL TECLADO, SIN EL MONITOR, SIN EL RATÓN Y TODOS LOS DISPOSITIVOS EXTERNOS, AUNQUE NO TENDRÍA

Más detalles

Introducción a la arquitectura del PC. Informática Básica Curso 2010/2011

Introducción a la arquitectura del PC. Informática Básica Curso 2010/2011 Introducción a la arquitectura del PC Informática Básica Curso 2010/2011 Arquitectura Von Neumann Computador de programa almacenado (stored-program computer) 2 Tipos de ordenadores Ordenadores de bolsillo

Más detalles

Introducción CAPÍTULO 1. Características del sistema

Introducción CAPÍTULO 1. Características del sistema CAPÍTULO 1 Introducción Los sistemas Dell PowerEdge 300 son servidores de alta velocidad con diseño basado en los microprocesadores Intel Pentium III. Estos sistemas soportan el bus PCI (Peripheral Component

Más detalles

FUNDAMENTOS DE INFORMATICA

FUNDAMENTOS DE INFORMATICA FUNDAMENTOS DE INFORMATICA TEMAS QUE SE TRATARÁN: Arquitectura Interna Sistemas Operativos Programación en Visual Basic Bases de Datos Redes e Internet 1 FUNDAMENTOS DE INFORMATICA Tema 1: Arquitectura

Más detalles

conjunto de dispositivos físicos que hacen posible el funcionamiento de un computador.

conjunto de dispositivos físicos que hacen posible el funcionamiento de un computador. Se denomina HARDWARE a todo el conjunto de dispositivos físicos que hacen posible el funcionamiento de un computador. Este concepto abarca a todos los componentes eléctricos y mecánicos que permiten llevar

Más detalles

T3.- La Placa Base. 1.- El factor de forma. 1.1.- Tipos: ATX, MicroATX, BTX. 1.2.- Dimensiones. 1.3.- Otras características. 1.4.- Ejemplos.

T3.- La Placa Base. 1.- El factor de forma. 1.1.- Tipos: ATX, MicroATX, BTX. 1.2.- Dimensiones. 1.3.- Otras características. 1.4.- Ejemplos. MONTAJE DE DE COMPONENTES INFORMÁTICOS TEMA 3 LA PLACA BASE. 1.1.- Tipos: ATX, MicroATX, BTX. 1.2.- Dimensiones. 1.3.- Otras características. 1.4.- Ejemplos. Factor de forma: Define características de

Más detalles

ENTRADA PROCESAMIENTO SALIDA

ENTRADA PROCESAMIENTO SALIDA SEMINARIO DIOCESANO DE CRISTO SACERDOTE TECNOLOGIA E INFORMATICA DOCENTE: CARLOS ARMANDO CABAL MUÑOZ GRADO: 6 TEMA: EL COMPUTADOR OBJETIVOS Identificar los componentes y dispositivos de un sistema computacional.

Más detalles

INFORMÁTICA. Hardware

INFORMÁTICA. Hardware INFORMÁTICA Hardware INFORMÁTICA Viene de INFORmación automática. Información es un conjunto de datos e instrucciones debidamente almacenada (textos, imágenes, vídeos y sonidos) Automática hace referencia

Más detalles

MODULO 2: LA MAINBOARD

MODULO 2: LA MAINBOARD MODULO 2: LA MAINBOARD Es la placa de circuitos más grande existente en un computador. Se la reconoce porque usualmente está en el fondo o espalda de los gabinetes del PC. En ella se insertan entre otros,

Más detalles

Básico de Arquitectura del Computador. Ing. Irvin Cuervo

Básico de Arquitectura del Computador. Ing. Irvin Cuervo Básico de Arquitectura del Computador El Computador Hardware Software El Computador Qué es y qué hace un computador? Un computador es básicamente una máquina cuya función principal es procesar información.

Más detalles

Fuente de alimentación AT y ATX

Fuente de alimentación AT y ATX Fuente de alimentación AT y ATX En el interior del ordenador existe una caja cerrada, que es la fuente de alimentación, que es la que se encarga de suministrar energía eléctrica a todo el ordenador, incluidos

Más detalles

CABLES Y CONECTORES EN COMPUTACION

CABLES Y CONECTORES EN COMPUTACION CABLES Y CONECTORES EN COMPUTACION La costumbre hace que cuando contestamos alguna pregunta relacionada con un PC digamos que compruebe tal o cual cable o que mire este o aquel conector, pero pocas veces

Más detalles

Capítulo 3 Fundamentos de una PC

Capítulo 3 Fundamentos de una PC Fundamentos de una PC Es importante saber reconocer y denominar los componentes básicos de una PC. Una PC es una pequeña red de computadoras. Fundamentos de una PC Componentes electrónicos.- Transistor

Más detalles

Tema 1. Hardware. Fundamentos de Informática Grado en Ingeniería Mecánica

Tema 1. Hardware. Fundamentos de Informática Grado en Ingeniería Mecánica Tema 1. Hardware. Fundamentos de Informática Grado en Ingeniería Mecánica Definición de computador Máquina electrónica de propósito general utilizada para procesar información El computador moderno se

Más detalles

Placa Madre o Tarjeta Principal

Placa Madre o Tarjeta Principal Placa Madre o Tarjeta Principal Fax Modems Tarjeta de Video Microprocesador Memoria RAM Unidad de CD Disquetera Disco Duro Placa Madre o Tarjeta Principal o Tarjeta Madre Tarjeta Madre Tarjeta Madre Puente

Más detalles

CURSO DE TECNICO EN INFORMATICA I. Diploma. Tecnico en Reparacion y Mantenimiento de PCs

CURSO DE TECNICO EN INFORMATICA I. Diploma. Tecnico en Reparacion y Mantenimiento de PCs CURSO DE TECNICO EN INFORMATICA I Diploma. Tecnico en Reparacion y Mantenimiento de PCs Este curso pretende brindar al alumno los conocimientos suficientes como para poder proceder a la reparación y mantenimiento

Más detalles

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES.

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES. 1.- a) Explica qué es un bit de información. Qué es el lenguaje binario? Bit es la abreviatura de Binary digit. (Dígito binario). Un bit es un dígito del lenguaje binario que es el lenguaje universal usado

Más detalles

Características: Existen muchas maneras de describir una placa madre, en especial las siguientes:

Características: Existen muchas maneras de describir una placa madre, en especial las siguientes: PLACA BASE Definición: La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todas las demás partes y dispositivos.

Más detalles

HARDWARE DE UN ORDENADOR. Conceptos avanzados

HARDWARE DE UN ORDENADOR. Conceptos avanzados HARDWARE DE UN ORDENADOR Conceptos avanzados Tipos de ordenadores Ordenadores personales: tienen un coste relativamente bajo. Aquí incluiríamos los ordenadores portátiles y de sobremesa que podamos tener

Más detalles

Hay varios formatos de placas base (Baby AT, ATX, Micro ATX, etc.) y diferentes tamaños.

Hay varios formatos de placas base (Baby AT, ATX, Micro ATX, etc.) y diferentes tamaños. PLACA BASE La "placa base" (mainboard) o "placa madre" (motherboard) es el elemento principal de un ordenador. En ella se encuentran integrados o se conectan el resto de dispositivos (memoria, procesador,

Más detalles

BIOS: conceptos y configuración.

BIOS: conceptos y configuración. BIOS: conceptos y configuración. El BIOS (Basic Input Output System Sistema Básico de Entrada Salida) es un programa que se encuentra grabado en un chip de la tarjeta madre, concretamente en una memoria

Más detalles

Bibliografía. Libros Arquitectura del PC, M. Ujaldón Upgrading and Repairing PCs, S. Mueller. Revistas Byte PC Actual PC World PC Plus PC Magazine

Bibliografía. Libros Arquitectura del PC, M. Ujaldón Upgrading and Repairing PCs, S. Mueller. Revistas Byte PC Actual PC World PC Plus PC Magazine Placa Base + BIOS 1 Bibliografía Libros Arquitectura del PC, M. Ujaldón Upgrading and Repairing PCs, S. Mueller Revistas Byte PC Actual PC World PC Plus PC Magazine Páginas web http://www.tomshardware.com

Más detalles

CONCEPTOS INFORMÁTICOS BÁSICOS

CONCEPTOS INFORMÁTICOS BÁSICOS CONCEPTOS INFORMÁTICOS BÁSICOS Informática Def 1: Se define como la ciencia que estudia el tratamiento Def 2: Ciencia que estudia la de una forma lógica y racional, empleando para ello medios humanos,

Más detalles

5.1.1 Variaciones del formato ATX

5.1.1 Variaciones del formato ATX Ampliar, configurar y reparar su PC Otra ventaja es que en las placas ATX los puertos serie y paralelo, así como los conectores para el teclado, puertos USB y PS/2 forman un panel en la parte trasera de

Más detalles

Curso de Armado y Reparación de PC Nivel 1 Gustavo Boselli gcboselli@hotmail.com CLASE Nº 5

Curso de Armado y Reparación de PC Nivel 1 Gustavo Boselli gcboselli@hotmail.com CLASE Nº 5 CLASE Nº 5 Sistema de Buses en una PC Un bus es una trayectoria por la cual viajan los datos en una computadora para comunicar los distintos dispositivos entre sí. Los principales buses que se encuentran

Más detalles

Federico Reina Toranzo

Federico Reina Toranzo Curso de Mantenimiento de Ordenadores 6ª Edición Versión 2.4 5 días Años 2001/2005 Federico Reina Toranzo Técnico de Laboratorio en la E.T.S.I. Informática fede@us.es Día a 1 Introducción n y normalización

Más detalles

POST Y BIOS. comprobación de la

POST Y BIOS. comprobación de la POST Y BIOS. Al encender la computadora personal (PC),la BIOS inicia el POST (Power On Self Test), el encendido de la PC tiene dos objetivos; por un lado se tiene que proporcionar la tensión adecuada a

Más detalles

Hardware y Software. Es el conjunto de dispositivos físicos que integran el ordenador. Hardware.

Hardware y Software. Es el conjunto de dispositivos físicos que integran el ordenador. Hardware. Hardware y Software Es el conjunto de dispositivos físicos que integran el ordenador. Hardware. 1 Software. Es el conjunto de instrucciones que dirigen los distintos componentes del ordenador. Es el encargado

Más detalles

Comprobaciones básicas tras el montaje del equipo informático.

Comprobaciones básicas tras el montaje del equipo informático. Mª DOLORES CARBALLAR FALCÓN 28935146L 1. Introducción.- Los titulados en algún ciclo formativo de la familia de informática o del PCPI de Informática, deben adquirir la capacidad de aplicar procedimientos

Más detalles

Guía 1: Introducción al Hardware y configuración de una PC. 1. Conocer e identificar los componentes de una computadora.

Guía 1: Introducción al Hardware y configuración de una PC. 1. Conocer e identificar los componentes de una computadora. 1 Facultad: Ingeniería. Escuela: Electrónica Asignatura: Arquitectura de Computadoras Guía 1: Introducción al Hardware y configuración de una PC Objetivo General 1. Conocer e identificar los componentes

Más detalles

REPARACION DE FUENTES DE PODER

REPARACION DE FUENTES DE PODER Página 1 de 15 REPARACION DE FUENTES DE PODER Reparación de fuentes PC AT Introducción Estas notas se basan en la experiencia, indicando por área lo que se debe cambiar para solucionar las averias, basándose

Más detalles

Arquitectura basica de un computador

Arquitectura basica de un computador Arquitectura basica de un computador Componentes o División básica de un computador Perifericos: Son todos los dispositivos de entrada (Input) y salida (Output): Monitor, Teclado, Ratón, Unidades de almacenamiento

Más detalles

Desde el punto de vista físico en un ordenador se pueden distinguir los siguientes elementos:

Desde el punto de vista físico en un ordenador se pueden distinguir los siguientes elementos: Desde el punto de vista físico en un ordenador se pueden distinguir los siguientes elementos: Unidad Central de proceso (CPU/UCP): Unidad que se encarga del control del ordenador, procesando para ello

Más detalles

PRINCIPALES COMPONENTES DE UNA COMPUTADORA

PRINCIPALES COMPONENTES DE UNA COMPUTADORA TUTORIAL 5to. Grado SEGUNDO TRIMESTRE LA COMPUTADORA, COMO ES POR DENTRO La computadora está integrada por varios dispositivos: la placa madre o motherboard, el microprocesador, las memorias (ROM y RAM),

Más detalles

Denominamos Ordenador o Computadora, a una máquina electrónica que es capaz de dar un tratamiento automatizado a la información.

Denominamos Ordenador o Computadora, a una máquina electrónica que es capaz de dar un tratamiento automatizado a la información. INTRODUCCIÓN AL ORDENADOR Denominamos Ordenador o Computadora, a una máquina electrónica que es capaz de dar un tratamiento automatizado a la información. Se compone de dos elementos fundamentales que

Más detalles

TEMA 4: TEORÍA DE LOS ORDENADORES

TEMA 4: TEORÍA DE LOS ORDENADORES TEMA 4: TEORÍA DE LOS ORDENADORES Francisco Raposo Tecnología 3ºESO 1. TEORÍA DE ORDENADORES Llamamos Informática a la ciencia que estudia el tratamiento automático de la información. La herramienta que

Más detalles

Módulos de Memoria RAM (Random Access Memory, memoria de acceso aleatorio). Estos módulos (ver figura 3.14) forman parte del almacenamiento

Módulos de Memoria RAM (Random Access Memory, memoria de acceso aleatorio). Estos módulos (ver figura 3.14) forman parte del almacenamiento CLASE 2 TECNICO EN HARDWARE Figura 3.14 Módulos de Memoria RAM (Random Access Memory, memoria de acceso aleatorio). Estos módulos (ver figura 3.14) forman parte del almacenamiento de datos principal de

Más detalles

Ranuras de Expansión o Slots 1

Ranuras de Expansión o Slots 1 RANURAS DE EXPANSIÓN DE PC Este pequeño apunte trata sobre la evolución de las ranuras de expansión de PC, se podrán observar en él las más difundidas en base a los estándares históricos, no pretende ser

Más detalles

Para ver una descripción de cada uno de los elementos, pulse en la imagen sobre ellos o sobre sus nombres o bien vaya al final de esta página.

Para ver una descripción de cada uno de los elementos, pulse en la imagen sobre ellos o sobre sus nombres o bien vaya al final de esta página. El "Mother Board", o placa madre, es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y dispositivos. Físicamente, se trata de una "oblea"

Más detalles

Introducción a la Entrada/Salida

Introducción a la Entrada/Salida Introducción a la Entrada/Salida Organización de entrada/salida La familia de procesadores 80x86, presente en el IBM PC, utiliza la arquitectura Von Neumann, que puede verse en la figura 1. El denominado

Más detalles

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B INTEGRACIÓN ATA

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B INTEGRACIÓN ATA Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B Reservados los Derechos de Propiedad Intelectual Tema: Integración ATA Archivo: CAP2A03BTHP0106.doc Clase Nº: 6 Versión: 1.2 Fecha:

Más detalles

Montaje de los Componentes de un Servidor para la Asignatura del Nuevo Grado en Ingeniería en Informática: Ingeniería de Servidores

Montaje de los Componentes de un Servidor para la Asignatura del Nuevo Grado en Ingeniería en Informática: Ingeniería de Servidores Montaje de los Componentes de un Servidor para la Asignatura del Nuevo Grado en Ingeniería en Informática: Ingeniería de Servidores F.Rojas, H. Pomares, A.Guillén, L.J. Herrera Departamento de Arquitectura

Más detalles

BUSES. Una comunicación compartida Un conjunto de cables para comunicar múltiples subsistemas. Memoria

BUSES. Una comunicación compartida Un conjunto de cables para comunicar múltiples subsistemas. Memoria BUSES UPCO ICAI Departamento de Electrónica y Automática 1 Qué es un bus? Una comunicación compartida Un conjunto de cables para comunicar múltiples subsistemas Procesador Control Datapath Memoria Entrada

Más detalles

Dispositivos de Entrada/Salida

Dispositivos de Entrada/Salida Dispositivos E/S. CPU Memoria Central Tarjeta de Red Red BUS Controlador de Discos Dispositivos E/S Dispositivos E/S. Los dispositivos de Entrada/Salida sirven al ordenador para obtener información del

Más detalles

Instalación. Instale los módulos de memoria. Español

Instalación. Instale los módulos de memoria. Español Para empezar La Guía rápida de configuración le ayudará a poner en marcha su placa base rápidamente. Consulte la Tarjeta de referencia rápida incluida en la Guía del usuario cuando utilice esta Guía rápida

Más detalles

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B

Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B Instituto Tecnológico Argentino Técnico en Hardware de PC Plan THP2A03B Reservados los Derechos de Propiedad Intelectual Tema: Procesadores AMD Archivo: CAP2A03BTHP0335.doc Clase Nº: 35 Versión: 1.1 Fecha:

Más detalles

[ TÉCNICO EN REPARACIÓN DE

[ TÉCNICO EN REPARACIÓN DE [ TÉCNICO EN REPARACIÓN DE COMPUTADORES Y EQUIPOS DE OFICINA] Programa: Técnico por competencias Laborales Mantenimiento y Reparación de Computadores y equipos de oficina. Código Ocupación CNO-SENA 8393:

Más detalles

MONTAJE DE UN PC. Lo primero ha tener en cuenta será el material que se necesita para poder montar un PC:

MONTAJE DE UN PC. Lo primero ha tener en cuenta será el material que se necesita para poder montar un PC: MONTAJE DE UN PC Material...1 Manual placa base...1 Instalación...1 Instalación del procesador...1 Montaje de la memoria...5 Fijación del ventilador...7 Montaje de la placa base...10 Lector o Grabador...12

Más detalles

Estándares Índice Estándares de Hardware Estándares para la adquisición de Equipos

Estándares Índice Estándares de Hardware Estándares para la adquisición de Equipos Estándares Índice Estándares de Hardware 2 Estándares para la adquisición de Equipos 3 CPU Servidor de Aplicaciones de Cliente Fino 3 CPU Servidor de Archivos para Cliente Fino 4 PC Cliente Fino 5 PC Linux

Más detalles

Tecnología de la Información y las Comunicaciones. Colegio Bosque Del Plata. UNIDAD 4 Hardware Procesador y Unidades de Almacenamiento.

Tecnología de la Información y las Comunicaciones. Colegio Bosque Del Plata. UNIDAD 4 Hardware Procesador y Unidades de Almacenamiento. Colegio Bosque Del Plata Tecnología de la Información y las Comunicaciones UNIDAD 4 Hardware Procesador y Unidades de Almacenamiento. E-mail: garcia.fernando.j@gmail.com Profesor: Fernando J. Garcia Ingeniero

Más detalles

TALLERES TIC DESTRIPAMOS ORDENADORES

TALLERES TIC DESTRIPAMOS ORDENADORES TALLERES TIC DESTRIPAMOS ORDENADORES por Mariano González 1. EL ORDENADOR Un ordenador personal (P.C.) es un dispositivo electrónico capaz de procesar la información que se le suministra, y mostrar al

Más detalles

Tema I: Introducción a los Sistemas Informáticos

Tema I: Introducción a los Sistemas Informáticos Redes de Datos Tema I: Introducción a los Sistemas Informáticos Unidades típicas Comparación rendimientos TEMA I : OBJETIVOS DE TEORÍA 1. Recordar las unidades y los múltiplos (Kilo, mega, giga, tera)

Más detalles

Tratamiento informático de datos. UNIDAD 1: Componentes de los equipos y materiales ACTIVIDADES-PÁG. 5

Tratamiento informático de datos. UNIDAD 1: Componentes de los equipos y materiales ACTIVIDADES-PÁG. 5 UNIDAD 1: Componentes de los equipos y materiales ACTIVIDADES-PÁG. 5 1. De la siguiente relación de componentes de un sistema informático, indica cuáles pertenecen al software y cuáles al hardware: teclado,

Más detalles

COMPONENTES INTERNOS DE LA PC

COMPONENTES INTERNOS DE LA PC COMPONENTES INTERNOS DE LA PC Capítulo 1 Actualizar la PC implica realizar cambios o agregar componentes con el objetivo de ampliar las funciones del sistema y mejorar su rendimiento. Para esto, habrá

Más detalles

DIFERENTES TIPOS DE CABLES Y CONECTORES DEL PC

DIFERENTES TIPOS DE CABLES Y CONECTORES DEL PC Página 1 de 7 DIFERENTES TIPOS DE CABLES Y CONECTORES DEL PC 1. Cables de datos: Los principales cables (también llamados fajas) utilizados para la transmisión de datos son: 1.1 Faja FDD o de disquetera:

Más detalles

Tema 1: Sistemas Informáticos Unit 1 : Computing systems. Parte 1: arquitectura de un ordenador personal Part 1 : architecture of a personal computer

Tema 1: Sistemas Informáticos Unit 1 : Computing systems. Parte 1: arquitectura de un ordenador personal Part 1 : architecture of a personal computer Tema 1: Sistemas Informáticos Unit 1 : Computing systems Parte 1: arquitectura de un ordenador personal Part 1 : architecture of a personal computer Qué vamos a ver? Qué es un sistema informático y qué

Más detalles

CHIPSET. Conjunto de circuitos integrados que controla funciones y comunicación entre dispositivos. 2221-0116 - 2258 4211 cursos.

CHIPSET. Conjunto de circuitos integrados que controla funciones y comunicación entre dispositivos. 2221-0116 - 2258 4211 cursos. CHIPSET Conjunto de circuitos integrados que controla funciones y comunicación entre dispositivos 2221-0116 - 2258 4211 cursos.cr 1 CHIPSET CPU Chipset Northbridge Southbridge 2221-0116 - 2258 4211 cursos.cr

Más detalles

ELABORADO POR: TSU. SERGIO JAIMES

ELABORADO POR: TSU. SERGIO JAIMES Una Computadora o PC (Siglas de Personal Computer, que se traduce en Computador Personal). Es una máquina diseñada para aceptar datos, procesarlos y facilitar los resultados, para satisfacer las necesidades

Más detalles

Fuente de Poder Sistemas Integrados Actualizados SIA

Fuente de Poder Sistemas Integrados Actualizados SIA FUENTE DE ALIMENTACIÓN (POWER SUPPLY) La Fuente de Alimentación, es un montaje eléctrico/electrónico capaz de transformar la corriente de la red eléctrica en una corriente que el Pc pueda soportar. Esto

Más detalles

EL ORDENADOR. HARDWARE Y SOFTWARE

EL ORDENADOR. HARDWARE Y SOFTWARE de juegos, etc. EL ORDENADOR. HARDWARE Y SOFTWARE El ordenador es una máquina electrónica utilizada para procesar información a gran velocidad. Es un sistema que recibe, procesa, almacena y presenta la

Más detalles

A continuación se representan los componentes básicos de un sistema computacional (ordenador). Figura 5.6.1 Componentes básicos de un ordenador.

A continuación se representan los componentes básicos de un sistema computacional (ordenador). Figura 5.6.1 Componentes básicos de un ordenador. 5.6 ESTRUCTURA BÁSICA DE UN ORDENADOR. TERMINOLOGÍA INFORMÁTICA Las aeronaves modernas utilizan sofisticados sistemas de aviónica que necesitan de sistemas de computación basados en microprocesadores.

Más detalles

Mantenimiento de Equipos Informáticos. Práctica 1: Instalación y configuración de placas base y tarjetas.

Mantenimiento de Equipos Informáticos. Práctica 1: Instalación y configuración de placas base y tarjetas. Mantenimiento de Equipos Informáticos Programa de Prácticas Curso 2001/02 Práctica 1: Instalación y configuración de placas base y tarjetas. Práctica 2: Configuración de la BIOS (CMOS setup). Práctica

Más detalles

Sistemas de Almacenamiento y Periféricos. ricos

Sistemas de Almacenamiento y Periféricos. ricos Sistemas de Almacenamiento y Periféricos ricos 1 Sistemas de Almacenamiento y Periféricos ricos -Almacenamiento Interfaces: ATA/IDE, SCSI, SATA Dispositivos: Discos duros, almacenamiento óptico, FLASH

Más detalles

R01-PROG PROGRAMA DEL CURSO OPERACIONES AUXILIARES DE MONTAJE DE COMPONENTES INFORMÁTICOS ACCION: MEDIO-AVANZADO OBJETIVOS: CONTENIDOS:

R01-PROG PROGRAMA DEL CURSO OPERACIONES AUXILIARES DE MONTAJE DE COMPONENTES INFORMÁTICOS ACCION: MEDIO-AVANZADO OBJETIVOS: CONTENIDOS: PROGRAMA DEL CURSO ACCION: DURACION: NIVEL: OPERACIONES AUXILIARES DE MONTAJE DE COMPONENTES INFORMÁTICOS 130 horas MEDIO-AVANZADO OBJETIVOS: CONTENIDOS: UD 1: MONTAJE DE COMPONENTES Y PERIFÉRICOS MICROINFORMÁTICOS

Más detalles

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)?

Cuál es el secreto de esta Tecnología, como logra que varios usuarios trabajen sobre un ordenador (PC)? De qué se compone el Terminal? El dispositivo NComputing tiene un chip propietario, una placa de red, una memoria caché para el vídeo y una memoria flash para el firmware (El setup inicial, se conoce como

Más detalles

Componentes y Ensamble, Componentes Básicos.

Componentes y Ensamble, Componentes Básicos. Componentes y Ensamble, Componentes Básicos. Si alguna vez has visto el interior de una computadora, quizás te hayas sorprendido su aparente simplicidad. Dentro del gabinete nos encontramos con unas cuantas

Más detalles

PUERTOS DE COMUNICACIÓN EXTERNOS TIPO VELOCIDAD DESCRIPCION GRAFICO

PUERTOS DE COMUNICACIÓN EXTERNOS TIPO VELOCIDAD DESCRIPCION GRAFICO PUERTOS DE COMUNICACIÓN EXTERNOS TIPO VELOCIDAD DESCRIPCION GRAFICO PUERTO PS/2 150 Kbytes/seg. La comunicación en ambos casos es serial (bidireccional en el caso del teclado), y controlada por microcontroladores

Más detalles

UF0512: Transmisión de información por medios convencionales e. informático. TEMA 1. Conexión y funcionamiento

UF0512: Transmisión de información por medios convencionales e. informático. TEMA 1. Conexión y funcionamiento UF0512: Transmisión de información por medios convencionales e informáticos TEMA 1. Conexión y funcionamiento operativo del equipamiento informático TEMA 2. Transmisión interna personal de documentación.

Más detalles

CONTENIDO. Capítulo 1. Capítulo 3. Capítulo 2. Contenido

CONTENIDO. Capítulo 1. Capítulo 3. Capítulo 2. Contenido CONTENIDO Sobre el autor 4 Prólogo 5 El libro de un vistazo 8 Introducción 14 Capítulo 1 INTRODUCCIÓN Estructura básica de la computadora 16 El microprocesador 16 La memoria 17 Los buses 18 Controladoras

Más detalles

Galeria de Puertos, Sockets, Slots, Ranuras y Conectores

Galeria de Puertos, Sockets, Slots, Ranuras y Conectores Galeria de Puertos, Sockets, Slots, Ranuras y Conectores Antes de leer recuerden que estos puertos pueden estar localizados diferentes que en las imagenes que vemos aqui. Para localizar un puerto, socket

Más detalles

Capítulo 2: Bios y buses de expansión BIOS. Técnico en Repatación de PC y Redes (intensivo)

Capítulo 2: Bios y buses de expansión BIOS. Técnico en Repatación de PC y Redes (intensivo) Técnico en Repatación de PC y Redes (intensivo) Capítulo 2: Bios y buses de expansión BIOS El Sistema Básico de Entrada/Salida o BIOS (Basic Input- Output System ) es un código de software que localiza

Más detalles

ARMADO Y REPARACIÓN DE PC

ARMADO Y REPARACIÓN DE PC ARMADO Y REPARACIÓN DE PC Capitulo Nº 3 Tema: El Motherboard y sus Componentes El Motherboard y sus Componentes. Toda PC está formada por una placa base y una serie de placas de expansión o plaquetas,

Más detalles

TECNOLOGIAS DE LA INFORMACION: ARQUITECTURA DEL ORDENADOR

TECNOLOGIAS DE LA INFORMACION: ARQUITECTURA DEL ORDENADOR TECNOLOGIAS DE LA INFORMACION: ARQUITECTURA DEL ORDENADOR En esta unidad vamos a estudiar el ORDENADOR, sus principios de funcionamiento, elementos que lo componen y las funciones que cumplen dentro del

Más detalles

Componentes de la placa base

Componentes de la placa base 28/9/2015 Componentes de la placa base Inharú Quesada y Tatiana Rosales 2ºBach A 1. Componentes externos de la placa base Puerto Paralelo Un puerto es una interfaz que se halla integrada a la placa madre

Más detalles

Arquitectura Del Computador

Arquitectura Del Computador Arquitectura Del Computador Unidad I Componentes básicos de una computadora Mg. Ramiro Banda Valdivia Marzo 2013 UNIVERSIDAD ALAS PERUANAS FACULTAD DE INGENIERÍAS Y ARQUITECTURA ESCUELA ACADÉMICO PROFESIONAL

Más detalles

M.C. Juan Carlos Olivares Rojas

M.C. Juan Carlos Olivares Rojas Introducción a las Tecnologías de la Información M.C. Juan Carlos Olivares Rojas 1 Agenda Unidad I Conceptos básicos 1.1 Componentes de un sistema de cómputo 1.1.1 Hardware 1.1.2 Software 1.1.31 Aplicaciones

Más detalles

HARDWARE DE UN ORDENADOR. 2. Cómo se llama a la parte de los ordenadores formada por los programas y las instrucciones para que funcione el ordenador?

HARDWARE DE UN ORDENADOR. 2. Cómo se llama a la parte de los ordenadores formada por los programas y las instrucciones para que funcione el ordenador? HARDWARE DE UN ORDENADOR 1. Cómo se llama la parte física de un ordenador? 2. Cómo se llama a la parte de los ordenadores formada por los programas y las instrucciones para que funcione el ordenador? 3.

Más detalles