UNIVERSIDAD MARIANO GÁLVEZ DE GUATEMALA UMG PETÉN



Documentos relacionados
I NTRODUCCIÓN 1. ORDENADOR E INFORMÁTICA

Una computadora de cualquier forma que se vea tiene dos tipos de componentes: El Hardware y el Software.

Memoria La memoria es la parte del ordenador en la que se guardan o almacenan los programas (las instrucciones y los datos).

HARDWARE DE UN ORDENADOR. Elementos básicos

Bits, Bytes y Datos y tipos de datos.

... partes internas del computador!...

Datos e información. Código de barra. Los datos son la mínima unidad semántica, y se corresponden con elementos primarios de información.

Introducción a la Computación

Figura 1.4. Elementos que integran a la Tecnología de Información.

Tema 24. Apartados 1 al 2.2 inclusive INFORMÁTICA

Tema 1 Fundamentos de Computación

UNIVERSIDAD DE ORIENTE FACULTAD DE ICIENCIAS ECONOMICAS LAS REDES I. Licda. Consuelo Eleticia Sandoval

El conjunto de conocimientos científicos y técnicos que hacen posible la resolución de forma automática de problemas por medio de las computadoras.

Partes de la Computadora

Capitulo V Administración de memoria

U.D. 1. SOFTWARE Y HARDWARE

Introducción. Ciclo de vida de los Sistemas de Información. Diseño Conceptual

by Tim Tran:

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES.

Universidad Central de Bayamón Colegio de Desarrollo Empresarial y Tecnología

MÓDULO 1: Sistemas de Cómputo

TEMA 1. INTRODUCCIÓN. 1. Diferentes niveles en la arquitectura de un computador

Componentes Internos y Externos del Ordenador. Prof: Ronald Méndez

METÁFORA EN INTERACCIÓN HUMANO COMPUTADORA

UNIDADES DE ALMACENAMIENTO DE DATOS

PROGRAMACIÓN ORIENTADA A OBJETOS

APUNTES DE WINDOWS. Windows y sus Elementos INSTITUTO DE CAPACITACIÓN PROFESIONAL. Elementos de Windows

UNIDAD 1: Introducción a la arquitectura de computadoras.

ORIENTACIONES SIMCE TIC

INTRODUCCION A LA COMPUTACION

INSTITUTO FRANCISCO POSSENTI A.C. Per crucem ad lucem Preparatoria (1085) Ciclo Escolar

CAPÍTULO I. Sistemas de Control Distribuido (SCD).

TALLER DE CONOCIMIENTOS APRENDICES JORGE LEONARDO MAZA CARLOS DAVID ZAMBRANO JOSE G. RODRIGUEZ PROFESOR RONALD MARTELO

El ordenador es un dispositivo electrónico que permite almacenar información, modificarla y generar nueva información.

Fundamentos básicos sobre computación

Guía de estudio para examen de recuperación tecnología I

Unidad 1. La información

Se encarga de realizar las funciones básicas de manejo y configuración del ordenador. La BIOS tiene más tareas fundamentales: Chequearse a sí misma.

DataMAX pa r a PS3. Manual del Usuario V1.0

Tutorial 2 LAS UNIDADES (I)

MineSight y la Tecnología Informática de última Generación

El Computador. Software

TEMA 4. Unidades Funcionales del Computador

UN SIMULADOR DE UNA MAQUINA COMPUTADORA COMO HERRAMIENTA PARA LA ENSEÑANZA DE LA ARQUITECTURA DE COMPUTADORAS

Un kilobyte (KB) son 1024 bytes, un Megabyte (MB) son 1024 KB, un Gigabyte son 1024 Mb

CONCEPTOS BÁSICOS DE INFORMÁTICA

La ventana de Microsoft Excel

CRECE CON INTERNET. Empieza a navegar por la Red

HISTORIA Y EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS

Sistemas de Computadoras Índice

502 A I.S.C. JOSE BARDO MORENO MACHADO ENRIQUE EDUARDO MORAN PRADO EDILBERTO RASCON HERNANDEZ

Lectura # 1. Lectura de apoyo al curso. Clasificación de las computadoras >>>

Arquitectura basica de un computador

La Computadora. Operaciones de entrada al ser receptora de información. Operaciones de cálculo, lógica y almacenamiento.

1. Conociendo el equipo

GUÍA RÁPIDA DE TRABAJOS CON ARCHIVOS.

Manual de usuario para Android de la aplicación PORTAFIRMAS MÓVIL

Redes I Clase # 3. Licda. Consuelo E. Sandoval

DIRECCIONAMIENTO IPv4

Tema 7: Esquema del Funcionamiento de una Computadora. Escuela Politécnica Superior Ingeniería Informática Universidad Autónoma de Madrid

Actividad N 1. Primer procesador creado por Intel

Tema 2 HARDWARE II. TICs 1º Bachillerato

Institución Educativa Inem Felipe Pérez de Pereira 2012 Estrategia taller. AREA: Sistemas de información Taller Previsto

UNIDADES FUNCIONALES DEL ORDENADOR TEMA 3

Curso Introducción A Los Computadores Y Open Office Writer

Tarjeta Principal. Disco Duro. Memoria RAM. Procesador. Fuente de Poder. Tarjetas de Expansión. Jair Acosta Núñez

TUTORIAL DE INSTALACIÓN PARA VIRTUALBOX

Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte)

INSTITUCIÓN EDUCATIVA JOSÉ EUSEBIO CARO ÁREA DE TECNOLOGÍA E INFORMÁTICA 2016 DOCENTE HARDWARE DE RED

U.N.Sa. - Facultad de Cs.Económicas, Jurídicas y Sociales. Seminario de Informática Presentación

Centro de Capacitación en Informática

Clase 20: Arquitectura Von Neuman

Proyecto Prototipo Domótica

PROCEDIMIENTO OPERATIVO DESARROLLAR SISTEMAS INFORMÁTICOS PDO-COCTI-DTIN-04

Tema 1 Introducción. Arquitectura básica y Sistemas Operativos. Fundamentos de Informática

UNIVERSIDAD DE PAMPLONA Una Universidad incluyente y comprometida con el desarrollo integral

Lenguajes de Programación

FUNCIONAMIENTO DE UNA COMPUTADORA 2

Matemática de redes Representación binaria de datos Bits y bytes

Capítulo 1 Introducción a la Computación

Act 1: Revisión de Presaberes. Lectura No. 1. Título de la Lectura: El Computador

TEMA 1: SISTEMAS INFORMÁTICOS. Parte 2: representación de la información

Desarrollo de Aplicaciones Web Por César Bustamante Gutiérrez. Módulo I: Conceptos Básicos Tema 1: Concepto iniciales.

TEMA 2: Representación de la Información en las computadoras

MATERIAL 2 EXCEL 2007

RED MODELO OSI TOPOLOGIAS

Sistemas de almacenamiento informático

UD 1. Representación de la información

2.1. Los sistemas operativos. UNIDAD 2

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

Xerox 700 Digital Color Press con Integrated Fiery Color Server. Impresión de datos variables

Conceptos de redes. LAN (Local Area Network) WAN (Wide Area Network)

EL COMPUTADOR. Las computadoras son actualmente

HP Backup and Recovery Manager

Diagramas del UML. A continuación se describirán los diagramas más comunes del UML y los conceptos que representan: Diagrama de Clases

VALORES CORPORATIVOS GRIFOLS

Desde el punto de vista físico en un ordenador se pueden distinguir los siguientes elementos:

Nombre de la sesión: Fundamentos de software contable

GESTIÓN Y CONTROL DEL DESARROLLO E IMPLANTACIÓN DE APLICACIONES

Sistema de Mensajería Empresarial para generación Masiva de DTE

Transcripción:

UNIVERSIDAD MARIANO GÁLVEZ DE GUATEMALA UMG PETÉN Introducción a los Sistemas de Cómputo Ingeniero Jorge Roberto Pérez Monroy Historia de las computadoras Arquitectura de la computadora Software Hardware Cuantificación de bits y bytes de Paz Lara, Eswin Arturo Sección: A Facultad: Ingeniería en Sistemas de Información y Ciencias de la Computación. Santa Elena de la Cruz, Flores, Petén 21/02/2015 1

ÍNDICE No. Página 1 INTRODUCCIÓN 01 2 OBJETIVOS 02 2.1 Objetivos generales 02 2.2 Objetivos específicos 02 3 HISTORIA DE LAS COMPUTADORAS 03 3.1 La Época Antigua 03 3.1.1 Ábaco 03 3.2 Los Pioneros 03 3.2.1 1617 John Napier 03 3.2.2 1623 Wilhelm Schickard 03 3.2.3 1642 Blaise Pasca 03 3.2.4 1694 Gottfried Wilhelm Von Leibniz 03 3.2.5 1790 Joseph Marie Jacquard 04 3.2.6 1812 Charles Babbage 04 3.2.7 1880 Herman Hollerith 04 3.3 La Computadora Moderna 05 3.3.1 1943 Howard Aiken 05 3.3.2 1939/1942 John Atanasoff 06 3.3.3 1946 Dr. John Mauchly y J. Presper Eckert 06 3.3.4 1945 John Von Newmann 07 3.4 Generaciones de Computadoras 08 3.4.1 Primera Generación 08 3.4.2 Segunda Generación 09 3.4.3 Tercera Generación 10 3.4.4 Cuarta Generación 11 i

3.4.5 Quinta Generación 12 4 ARQUITECTURA DE LA COMPUTADORA 14 4.1 Unidad de Entrada 14 4.2 Unidad de Salida 14 4.3 CPU 15 4.3.1 Unidad de Control 15 4.3.2 Unidad Aritmético-Lógica 15 4.4 Unidad de Memoria 15 4.5 Componentes básicos de una Computadora 15 4.5.1 Hardware 15 4.5.2 Software 15 4.5.2.1 Sistema Operativo 15 4.5.3 UCP o CPU (Unidad Central de Procesamiento) 15 4.5.4 Memoria 16 4.5.4.1 Memoria RAM 16 4.5.4.2 Memoria ROM 16 4.5.5 Motherboard 16 5 SOFTWARE 17 5.1 Clasificación del Software 17 5.1.1 Software de Sistema 17 5.1.2 Software de Programación 18 5.1.3 Software de Aplicación 18 6 HARDWARE 19 6.1 Hardware versus Software 19 6.2 Partes Fundamentales del Hardware que componen un ordenador 19 ii

6.2.1 Estructura Básica de un Ordenador 19 6.2.2 Unidades de Almacenamiento 20 6.2.3 Periféricos 20 7 CUANTIFICACIÓN DE BITS Y BYTES 21 7.1 Construcción con Bits 23 7.1.1 Qué significa para el computador una combinación de bits como 01100110? 23 7.1.2 Los bits como números 23 7.1.3 Los bits como códigos 23 7.1.4 Los bits como instrucciones en los programas 23 7.1.5 Múltiplos o Equivalencias del bit y del byte 24 7.1.6 Tipos de bits 25 7.1.7 Cuantificación de la Información 25 8 CONCLUSIÓN 26 9 OBSERVACIONES 27 10 E-GRAFÍA 28 11 ANEXOS 29 11.1 Anexo 1. Maquina Analítica de Charles Babbage 31 11.2 Anexo 2. ENIAC 31 11.3 Anexo 3. UNIVAC I 31 11.4 Anexo 4. IMB complementa el Sistema 360 32 11.5 Anexo 5. Primeros Procesadores 32 11.6 Anexo 6. Sistema Operativo: Windows 98 32 iii

11.7 Anexo 7. Mac Book 33 11.8 Anexo 8. Visión típica de una arquitectura de computadora 33 como una serie de capas de abstracción: hardware, firmware, ensamblador, kernel, sistema operativo y aplicaciones 11.9 Anexo 9. Diagrama de una Computadora según su Arquitectura 34 11.10 Anexo 10. Proceso de Arranque de un Sistema Operativo 34 11.11 Anexo 11. El trabajo en Equipo del Hardware y el Software 35 11.12 Anexo 12. Software de Sistema 35 11.13 Anexo 13. Software de Aplicación 35 11.14 Anexo 14. Software de Desarrollo o Programación de Software 36 11.15 Anexo 15. Esquema Elemental de un Ordenador 36 11.16 Anexo 16. El Disco Duro como Unidad de Almacenamiento 36 11.17 Anexo 17. Periféricos 37 11.18 Anexo 18. Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm corresponden a 512 bytes. 37 11.19 Anexo 19. Cuatro posibles combinaciones con dos bits 37 11.20 Anexo 20. Cuantificación de Bits 38 11.21 Anexo 21. Código ASCII utilizando los bits 38 11.22 Anexo 22. Números Decimales y su Equivalencia en Binarios 39 iv

INTRODUCCIÓN A continuación se detalla cronológicamente el Inicio de las Calculadoras que con el avance tecnológico y la evolución de la mente humana dieron vida las Computadoras (las grandes calculadoras); la Arquitectura de las Computadoras nos describe detalladamente la construcción de la misma, y en general cada uno de sus componentes básicos, así como su Hardware y Software; el Hardware es la parte externa y física de las computadoras; y el Software su parte gráfica; cabe resaltar que la cuantificación de los bits y bytes, en resumen simplemente es la conversión de los mismos medios de información empleados en la Informática (bits-terabytes). 1

OBJETIVOS Objetivos Específicos: o Extenderme a la bastedad de cada uno de los temas investigados, para así saber los inicios de cada computadora hasta nuestros días. o.saber cuantificar los Bits, y bytes. Objetivos Generales: v Expresar con facilidad la Cronología de las Computadoras. v Comunicar a quien interese, la Arquitectura de una computadora, qué es?, y cómo se constituye? El Hardware y Software de las mismas. 2

HISTORIA DE LAS COMPUTADORAS La Época Antigua El Ábaco El ábaco representa el artefacto más antiguo empleado para manipular datos. Se cree que alrededor del año 3000 BC, los babilonios empleaban el ábaco para realizar cómputos matemáticos rudimentarios. Los Pioneros 1617 John Napier John Napier, un matemático Escocés, inventó los Huesoso Bastoncillos de Napier. Este artefacto permitía multiplicar grandes números mediante la manipulación de estos bastoncillos. 1623 Wilhelm Schickard Wilhelm Schickard fue el primer matemático en intentar desarrollar una calculadora. Nativo de Alemania, aproximadamente para el año 1623, éste matemático construyó un mecanismo que podía sumar, restar, multiplicar y dividir. Su plan era enviar a su amigo, Johannes Kepler, una copia de su nueva invención, pero un fuego destruyó las partes antes que fueran ensambladas. El prototipo nunca fue encontrado, pero un esquema rudimentario de esta máquina sobrevivió. Para la década de los 1970, fue construido un modelo de este tipo de computador matemático. 1642 Blaise Pascal Blaise Pascal fue un matemático francés que nació en el 1623. Desde muy temprana edad era un entusiasta en el estudio autodidacta de las matemáticas. Antes de que alcanzara la edad de trece años, Pascal descubrió un error en la geometría de Descartes. En el 1642 inventó una máquina calculadora que permitía sumar y restar, conocida como el Pascalino. Tal mecanismo, empleaba ruedas numeradas del 0 al 9, la cual incorporaba un mecanismo de dientes y cremalleras que permitían manejar números hasta 999,999.99. Debido al alto costo para reproducir este aparato, y porque la gente temía que fueran despedidas de sus trabajos, el Pascalino no fue un éxito comercial. 1694 Gottfried Wilhelm Von Leibniz Leibniz fue un matemático Alemán que diseño un instrumento llamado el Stepped Reckoner. Esta máquina era más versátil que la de Pascal puesto que podía multiplicar y dividir, así como sumar y restar. 3

1790 Joseph Marie Jacquard Creó el Telar de Jacquard (Jacquard s Loom) el cual empleaba tarjetas perforadas para crear patrones en una fábrica de avitelado en una tejedora. 1812 Charles Babbage Charles Babbage fue un inglés que, agravado por errores en las tablas matemáticas que eran impresas, renunció a su posición en Cambridge para concentrar sus esfuerzos en el diseño y construcción de un dispositivo que pudiera resolver su problema. Babbage bautizó su máquina del ensueño con el nombre de Motor Diferencial (Differential Engine), pues ésta trabajaba para resolver ecuaciones diferenciales. Empleando fondos del gobierno y de sus propios recursos, durante diecinueve años laboró arduamente en su meta, pero no tuvo éxito. Babbage solo pudo construir algunos componentes y la gente se referían a su artefacto como la locura de Babbage. Luego que el gobierno retirará sus fondos, Babbage comenzó a trabajar en otra y más sofisticada versión de su máquina, la cual fue llamada el Motor Analítico (Analytical Engine). Una amiga íntima, Augusta Ada Bryron, Condesa de Lovelace, la única hija reconocida por el Barón Bryron, trató de ayudar a Babbage. Ella reunió dinero para su invención y escribió un programa de demostración para el Motor Analítico. Por su contribución al desarrollo de tal programa, ella es considerada como el primer programador de computadora y el lenguaje de programación Ada fue nombrado en su honor. En el 1835, Babbage diseño un sistema con provisión para datos impresos, una unidad de control y una unidad de almacenaje de información. Esta máquina almacenaba los resultados intermedios en tarjetas perforadas similares a las que utilizaba el telar de Jacquard. Sin embargo, el Motor Analítico nunca fue completado porque la construcción de la máquina requería herramientas de precisión que no existían para esa época. La lógica de la máquina de Babbage fue importante para otros inventores de computadora. Se le atribuye a Babbage las dos clasificaciones de la computadora: el almacenaje, o la memoria, y el molino, una unidad de procesamiento que lleva a cabo los cómputos aritméticos para la máquina. Por este logro, se le considera el padre de las computadoras, e historiadores se han atrevido a decir que todas las computadoras modernas tienen descendencia directa del Motor Analítico de Babbage. 1880 Herman Hollerith Norteamericano que inventó una perforadora, lectora y tabuladora de tarjetas. 4

La Computadora Moderna 1943 Howard Aiken Como estudiante de Harvard, Aiken propuso a la universidad crear una computadora, basado en el Motor Analítico de Babbage. Lamentablemente, la universidad de Harvard no le proveyó la ayuda que necesitaba. Sin embargo, su idea tuvo buena acogida para la compañía privada de IBM. Entonces, Aiken, conjuntamente con un grupo de científicos, se lanzó a la tarea de construir su máquina. En el 1943, se completó su sueño con su nuevo bebé, llamado Mark I, también conocido por la IBM como Automatic Sequence Controlled Calculator. Este artefacto era de 51 pies de largo, 8 pies de altura y 2 pies de espesor; contaba con 750,000 partes y 500 millas de cable; y su peso era de 5 toneladas. Era muy ruidosa, pero capaz de realizar tres calculaciones por segundo. Este computador, aceptaba tarjetas perforadas, las cuales eran luego procesadas y almacenadas esta información. Los resultados eran impresos en una maquinilla eléctrica. Esta primera computadora electromecánica fue la responsable de hacer a IBM un gigante en la tecnología de las computadoras. Luego, Howard Aiken y la IBM se separaron en compañías independientes, alejadamente debido a la arrogancia de Aiken. Como fue documentado, IBM había invertido sobre $0.5 millones en la Mark I y en retornó a su inversión, Thomas J. Watson, el cual dirigía IBM, quería el prestigio de estar asociado con la Universidad de Harvard. En una ceremonia de dedicación por la ceración del Mark I, el Dr. Howard Aiken hizo alarde de sus logros sin referirse a la IBM. Este descuido intencional enojó a Watson, el cual le gritaba algunas blasfemias a Aiken antes de súbitamente dejar la ceremonia. A raíz de este incidente. Watson terminó su asociación con Harvard. Más tarde, IBM desarrollaron varias máquinas que eran similares a la de Mark L, y Howard Aiken también construyó una serie de máquinas (la Mark II, Mark III y Mark IV). Otro interesante hecho ocurrió con Aiken, y es que se acuño la palabra debug, en español Depurar. En el 1945, el Mark II estaba albergado en un edificio sin aire acondicionado. Debido a que generaba una gran cantidad de calor, las ventanas se dejaron abiertas. Sin previo aviso, la computadora gigante se detuvo y todos los técnicos trataron frenéticamente de resolver la fuente del problema. Grace Hopper, un brillante científico, y sus compañeros de trabajo encontraron el culpable: una polilla muerta en un relevo de la computadora. Ellos eliminaron la polilla con unas pinzas y la colocaron en la bitácora de Mark II. Cuando Aiken regresó para ver coma andaban las cosas con sus asociados, ellos le contaron que tuvieron que depurar la máquina. Al presente, la bitácora del Mark II se preserva en el Museo naval en Dahlgren, Virginia. 5

1939/1942 John Atanasoff En el 1939, en la Universidad de Iowa State, John Atanasoff diseño y construyó la primera computadora digital mientras trabajaba con Clifford Berrr, un estudiante graduado. Más tarde, Atanasoff y Berry se dedicaron a trabajar en un modelo operacional llamado el ABC, el Atanasooff-Berry Computer. Esta computadora, completada en el 1942, usaba circuitos lógicos binarios y tenía memoria regenerativa. 1946 Dr. John Mauchly y J. Presper Eckert Con el advenimiento de la Segunda Guerra Mundial, los militares necesitaban una computadora extremadamente rápida que fuera capaz de realizar miles de cómputos para compilar tablas balísticas para los nuevos cañones y misiles navales. El Dr. John Mauchly y J. Presper Eckert creían que la única manera de resolver este problema era con una máquina electrónica digital, de manera que trabajaron juntos en este proyecto. En el 1946 completaron su trabajo, del cual surgió una computadora electrónica digital operacional, llamada ENIAC (Electronic Numerical Integrator And Computer). Esta máquina fue desarrollada a gran escala, siendo derivada de las ideas no patentadas de Atanasoff. Este aparato trabajaba con el sistema decimal y tenía todas las características de las computadoras de hoy día. Las dimensiones de la ENIAC eran inmensas, ocupando un espacio de 30 X 50 pies, un peso de 30 toneladas, y un consumo de 160 kilovatios de potencia. Conducía electricidad a través de 18,000 tubos de vacío, generando un calor inmenso; contaba con un aire acondicionado especial para mantenerla fría. La primera vez que se encendió este sistema menguaron las luces de toda Filadelfia. Esta computadora operaba a una frecuencia que era 500 veces más rápida que cualquier computadora electromecánica de esa época. Un problema que tenía era que tardaba de 30 a dos horas de calcular para las máquinas electromecánicas, esta máquina la resolvía en tres minutos. Las limitaciones del ENIAC eran una reducida memoria y un problema al cambiar de un programa a otro. Cuando el usuario quería cambiar a otro programa, la máquina tenía que ser re-alambrada. Estos problemas hubiesen tomado años en resolverse si no fuera por una reunión entre Herman Goldsine, un matemático y oficial de enlace para el proyecto de ENIAC, y John Von Newmann, un famoso logístico y matemático. A raíz de tal reunión, John Von Neumann se unió al equipo de Moore, el cual estaba muy cerca de embarcar en una nueva computadora llamada EDVAC (Electronic Discrete Variable Automatic Computer). 6

1945 John Von Newmann Luego de haber llegado John Von Newmann a Filadelfia, él ayudó al grupo de Moore a adquirir el contrato para el desarrollo de la EDVAC. Neumann también asistió al grupo con la composición lógica de la máquina. Como resultado de la colaboración del equipo de Moore, surgió un adelante crucial en la forma del concepto del programa almacenado. Hasta este momento, la computadora almacenaba sus programas externamente, ya fuera en tarjetas conectadas, cintas peroradas y tarjetas. La ENIAC empleaba 18, tubos al vacío y requería que un par de tales tubos se unieran en una manera particular para que pudieran sostener la memoria en un bit de los datos. Mauchly y Eckert descubrieron que una línea de demora de mercurio podría reemplazar docenas de estos tubos al vacío. Ellos figuraron que las líneas de demoras significarían ahorros gigantescos en los costos de los tubos y espacio de memoria. Este avance contribuyó a la creación de la computadora EDVAC. El EDVAC almacenaba información en memoria en la misma manera que los datos. La máquina, entonces, manipulaba la información almacenada. Aunque a Von Newmann y su grupo se le acreditó con el uso del concepto del programa almacenado, no fue para ellos la primera máquina. Eso honor se dirige al grupo de la Universidad de Cambridge que desarrollaron el EDSAC (Electronic Delay Storage Automatic Computer). Las computadoras EDSAC y EDVAC fueron las primeras en usar la notación binaria. Antes del 1951, las computadoras no fueron manufacturadas a grande escala. En el 1951, con la llegada del UNIVAC, comienza la era la las computadoras comerciales. Con tan solo dentro de tres años, IBM comenzó a distribuir su IBM 701 y otras compañías manufacturaron computadoras, tal como el Burroughs E. 101 y el Honeywell Datamatic 1000. Las computadoras que fueron desarrolladas durante los años 1950 y 1960 se conocieron como las computadoras de la primera generación porque tenía una característica en común, el tubo en vacío. 7

Generaciones de Computadoras Desde su inicio, la computadora ha pasado varias etapas de desarrollo. Por lo general, los escritores clasifican estos avances tecnológicos como generaciones, un término de mercadeo. Aunque existe algún solapamiento, es conveniente visualizar el desarrollo tecnológico de esta manera. Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos: La forma en que están construidas. Forma en que el ser humano se comunica con ellas. Primera Generación En esta generación había un gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. La primera generación de computadoras comenzó en los años 1940 y se extendió hasta los 1950. Durante este periodo, las computadoras empleaban tubos al vacío para conducir la electricidad. El uso de los tubos al vacío hacía que las computadoras fueran grandes, voluminosas y costosas porque los tubos tenían que ser continuamente reemplazados debido a que se quemaban con frecuencia. Hasta este tiempo, las computadoras fueron clasificadas por su dispositivo principal para el almacenaje en memoria. La UNIVAC I empleaba un ingenioso dispositivo llamado línea de demora de mercurio (mercury delay line), la cual dependía de pulsos de ultrasonido. Estas máquinas tenían las siguientes características: Estas máquinas estaban construidas por medio de tubos de vacío. Eran programadas en lenguaje de máquina. En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares). 1951 Remington Rand: Desarrolló la primera computadora eléctrica digital, la UNIVAC I (Universal Automatic Computer). 1953 IBM 650: Para esta época, por primera vez se emplea ampliamente como sistemas de computadora el modelo de IBM 650. Originalmente se planificaron producir 50 máquinas, pero el sistema fue tan 8

exitoso que eventualmente IBM manufactura más de 1,000. Con las series de máquinas IBM 700, la compañía dominaría el mercado de las supercomputadoras para la próxima década. 1957 IBM 305 RAMAC: En el 1957, el sistema de IBM 305 RAMAC es el primero en su clase en utiliza disco magnético para almacenaje externo. El sistema provee capacidad de almacenamiento similar a la cinta magnética que fue usada previamente, pero ofrece la ventaja de capacidad de acceso semi-aleatorio. La computadora más exitosa de la primera generación fue la IBM 650, usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales. Segunda Generación Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas. Las características de la segunda generación son las siguientes: Están construidas con circuitos de transistores. Se programan en nuevos lenguajes llamados lenguajes de alto nivel. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora 9

de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; 1958 Transistor: Las computadoras construidas con transistores marcan el comienzo de la segunda generación de los equipos de computadora. 1959 IBM 1602: IBM introduce dos pequeñas computadoras de escritorio, a saber: la IBM 1401 para negocios y la IBM 1602 para científicos. Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315. La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601. Tercera generación Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964. Las características de esta generación fueron las siguientes: Su fabricación electrónica está basada en circuitos integrados. Su manejo es por medio de los lenguajes de control de los sistemas operativos. 1964 IBM 360: La tercera generación de computadoras comenzó en el 1964 con la introducción de la IBM 360, la computadora que fue la pionera para el uso de circuitos integrados en un chip. En ese mismo año, los científicos de computadora desarrollaron circuitos integrados diminutos e instalaron cientos de estos transistores en un solo chip de silicón, el cual era tan pequeño como la punta de un dedo. 1965 PDP-8: La Digital Equipment Corporation (DEC) introduce la primera minicomputadora, conocida como la PDP-8. 10

1968 Alan Shugart: Alan Shugard en IBM demuestra el primer uso regular del Disco flexible de 8-pulgadas (disco de almacenaje magnético). Cuarta Generación Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática". 1968 Gilbert Hyatt: El desarrollo de la tecnología de microprocesadores resultó en la cuarta generación. En el 1968, Gilbert Hyatt diseño una computadora que tenía la capacidad de instalar un microchip de silicón del tamaño de una uña de dedo. Hayatt quería que el mundo lo reconociera como el inventor que revolucionó la computadora. Después de veinte años de batallas legales, la oficina de patentes y marcas en Estados Unidos Continentales le otorgó a Hyatt la patente No. 4,942.516 por un Single Chip integrated Circuit Computer Architecture. 1971 Dr. Ted Hoff: En el 1971, el Dr., Ted Hoff, conjuntamente con un grupo de individuos trabajando en Intel Corporation, desarrollaron un microprocesador o un chip de computadora micro programable, conocido con el nombre de Intel 4004. Tal chip solo estaba destinado para calculadoras, puesto carecía de la potencia necesaria para que pudiera trabajar en una computadora. 1975 la Altair: Tres años más tarde, ellos presentaron en el mercado la versión 8080, la cual era capaz de correr la unidad de procesamiento de una computadora. En el 1974, Radio Electronics publicó un artículo sobre la construcción de una computadora casera que usaba esta tecnología. Subsecuentemente, la revista Popular Electronics escribió una sección sobre Altair, una computadora que tenía el chip 8080. La Altair, nombrada así por un episodio de Star Trek, fue introducida por MITS, Inc. Fue vendida en combo por menos de $400.00. Aunque inicialmente no contaba con teclado, monitor, sin una memoria permanente y sin programas, fueron tomadas 4,000 órdenes dentro de los primeros tres meses. 1976 Steve Wozniak and Steve Jobs: Las computadoras Apple hicieron su aparición durante la década de los 1970. En el 1976, Steve Wozniak y Steve Jobs construyeron la primera computadora de Apple. 11

Este dúo suministraba gratuitamente programas para sus máquinas, adquiriendo un éxito módico. Con la ayuda de profesionales en este campo, en el 1977 presentaron una nueva versión mejorada de su máquina de Apple, llamada la Apple II. Este sistema de computadora fue el primero en su clase en ser aceptado por usuarios comerciantes, contaba con la simulación de una hoja de cálculo llamada VisiCalc. Era una computadora de escritorio compacta con 4Kde memoria, con precios de $1,298 y una velocidad del reloj de 1.0. 1980 IBM PC: La corporación de IBM entró en el mercado de las computadoras personales, lanzando la IBM PC. Esta computadora fue un éxito rotundo y se convirtió en un best seller. Debido al éxito de la entrada de la IBM en el mercado de microcomputadoras tipo PC, otras corporaciones de computadoras decidieron capitalizar tal popularidad al desarrollar sus propios clones. Estas computadoras personales contaban con muchas de los mismos rasgos de las máquinas IBM y eran capaces de correr los mismos programas. Se hizo realidad el uso diseminado de computadoras personales. Quinta Generación En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados. Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:. Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad. Manejo de lenguaje natural y sistemas de inteligencia artificial. En la quinta generación, surgieron computadoras con chips de alta velocidad. 1991 Toushstone Delta Supercomputer: En el 1991, Cal Tech hizo público su Touchstone Delta Supercomputer, la cual ejecutaba 8.6 billones de cálculos por segundo. Al presente, existen computadoras que pueden llevar a cabo miles de operaciones simultáneamente y la frecuencia de la 12

ejecución de estas máquinas se mide en teraflops. Un teraflop es equivalente a la ejecución de 1 trillón de operaciones de puntos flotantes por segundo. Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con él, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados. El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto. 13

ARQUITECTURA DE LA COMPUTADORA Una computadora es un tipo particular de máquina cuyo ambiente, aquello que transforma, no es materia o energía. El objeto y sujeto de su trabajo es información. La computadora digital es un ordenador numérico, automático secuencial y universal. Su arquitectura explica sus componentes básicos, y las configuraciones del sistema informático para realizar ciertas actividades operacionales. Toda Computadora tiene un Hardware y un Software; las computadoras están compuestas por cinco secciones básicas: Unidad de Entrada, Unidad de Memoria, Unidad de Control, Unidad Aritmético-Lógica y Unidad de Salida. La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (CPU) trabaja internamente y accede a las direcciones de memoria. El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la Unidad aritmético lógica (UAL) y la Unidad de Control) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones). Unidad de Entrada Tiene por función la conversión de señales a nivel humano, en señales que sean entendibles por la máquina. La unidad de entrada traduce información de nivel humano a nivel de máquina, usando el Sistema Binario (Códigos de 0 s y 1 s). Unidad de Salida Es el traductor inverso de la Unidad de Entrada, es decir, la información que estaba a nivel máquina nos la traduce a Nivel Humano. 14

CPU En el bloque central del esquema se ven dos bloques: la Unidad de Control, y la Unidad Aritmético-Lógica. a) Unidad de Control: Se encarga de que las operaciones se realicen en las secuencias que correspondan (Por ejemplo: no calcular antes de recibir datos, no comunicar información al exterior mientras no se termine de calcular, etc.). b) Unidad Aritmético-Lógica: Su nombre debe a que la información la procesa matemáticamente y luego la compara lógicamente. Unidad de Memoria Los dispositivos electrónicos o electromagnéticos en donde se almacena la información recibida del exterior antes de ser procesada y la ya procesada, constituye la Memoria. En la Memoria residen el programa que será procesado, los datos para el proceso, y los resultados del proceso. Componentes Básicos de una Computadora: Hardware Es el conjunto de circuitos, elementos y equipos eléctricos de un computador. Software Es el conjunto de instrucciones que las computadoras emplean para manipular datos, es decir, es un conjunto de programas, documentos, procedimientos y rutinas asociados con la operación de un sistema de cómputo. Sistema Operativo: Es aquel conjunto de programas cuyo objeto es facilitar el uso eficiente de la computadora. Este conjunto de programas administra los recursos del sistema (hardware). Se encarga de la lectura y escritura de los dispositivos lógicos, tiene un sistema de archivos, una interfaz de usuario y tiene la inicialización y finalización general. UCP o CPU (Unidad Central de Procesamiento) Éste se encarga de traducir o transformar la Unidad de Entrada y la de Salida, el cual interpreta y lleva a cabo las instrucciones de los programas, efectúa manipulaciones aritméticas y lógicas con los datos y se comunica con las 15

demás partes del Sistema. Un Procesador es una colección compleja de circuitos electrónicos, que se encuentran en un tablero de circuitos. Memoria La Memoria Principal o Memoria Central es el dispositivo que sirve para almacenar los programas (instrucciones) que se quieran ejecutar (cuando haya que cargar el programa) y para almacenar los datos, los cálculos intermedios y los resultados (cuando el programa ya se esté ejecutando). Sólo los datos almacenados en la memoria son procesables por la CPU. Los datos que estén contenidos en algún dispositivo de almacenamiento externo deben ser previamente introducidos a la memoria, por medio de una unidad periférica. Dentro de la memoria principal, existen dos divisiones en función de las posibilidades de lectura/escritura o solamente lectura: RAM y ROM. Memoria RAM (Random Access Memory): Es la memoria destinada a contener los programas cambiantes del usuario y los datos que se vayan necesitando durante la ejecución de dichos programas. Es la memoria flexible y reutilizable. La memoria RAM se llama también memoria de usuario, por ser la memoria con la que trabaja el sistema para ejecutar los programas. Cuando se hace referencia a la capacidad de memoria de un ordenador se está hablando de la memoria RAM del sistema. Memoria ROM (Read Only Memory): Memoria de solo lectura, llamada también memoria residente o permanente. Son memorias que sólo permiten la lectura y no pueden ser re-escritas. Su contenido viene grabado por el fabricante de la computadora y no puede ser cambiado. Debido a estas características es que esta memoria se usa para almacenar información vital para el funcionamiento del sistema. La gestión del proceso de arranque, la verificación inicial del sistema, la carga del sistema operativo y diversas rutinas de control de dispositivos de entrada/salida suelen ser las tareas encargadas a los programas grabados en ROM. Los programas que constituyen la información vital de una computadora forman la llamada BIOS (Basic Input Output System). Motherboard La Tarjeta Madre, también conocida como Tarjeta Principal, Mainboard, Motherboard, etc. es el principal y esencial componente de toda computadora, ya que allí donde se conectan los demás componentes y dispositivos del computador. 16

SOFTWARE El soporte lógico o Software de un ordenador es el conjunto de programas que permiten realizar tareas asignadas a la máquina. El soporte lógico según sea el nivel de trabajo de cada programa, se suele clasificar en Software de Sistema (necesario para administrar y mantener los recursos del ordenador de una forma eficiente), y Software de aplicación (que corresponde a las aplicaciones específicas que utilizan los recursos del ordenador), y el Software de Programación o de Desarrollo de Software. El Software es el conjunto de datos y programas que maneja el ordenador. Es la parte lógica o inmaterial de un sistema informático. Almacenados en el ordenador en forma de ceros y unos. En este sentido, MS-DOS, LINUX o el Sistema Operativo Windows, de Microsoft, son ejemplos de software de sistema, mientras que programas como Power Point, Hot Potatoes o Clic entran dentro de la categoría de software de aplicación. Clasificación del software Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos: Software de sistema Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros: d) Herramientas de Corrección y a) Sistemas operativos b) Controladores de dispositivos Optimización e) Servidores c) Herramientas de diagnóstico f) Utilidades 17

Software de programación Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente: a) Editores de texto b) Compiladores c) Intérpretes d) Enlazadores e) Depuradores f) Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI). Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros: b) Aplicaciones para Control de sistemas y automatización industrial c) Aplicaciones ofimáticas d) Software educativo e) Software empresarial f) Bases de datos g) Telecomunicaciones (por ejemplo Internet y toda su estructura lógica) h) Videojuegos i) Software médico j) Software de cálculo numérico y simbólico. k) Software de diseño asistido (CAD) l) Software de control numérico (CAM) 18

HARDWARE El equipo (hardware) incluye todos los componentes físicos del sistema de la computadora. Puede componer una sola unidad o puede ser un número de dispositivos separados. Cada componente del equipo de computadora consiste de circuitos electrónicos y partes mecánicas que llevan a cabo una función particular. Incluye el CPU ("central processing unit" o unidad del sistema), sistemas masivos de almacenaje, unidades de disco, monitor, teclados, impresora con cinta o cartridge, los terminales, teclados, entre otros periferales. La unidad del sistema de la mayoría de las microcomputadoras se compone de la tarjeta del sistema, el microprocesador ("Central Procesing Unit" o "CPU", siglas en inglés), encajes/receptáculos ("sockets") para actualizar, memoria, coprocesadores, "bus", ranuras de expansión, puertos y conectores, bahías o compartimientos (bays), la fuente de corriente o potencia, y componentes de sonido. Hardware versus software Un ordenador está constituido por un conjunto de circuitos y elementos físicos. A esta parte se le denomina con el nombre ingles de hardware. El hardware de un ordenador es totalmente inútil sin la existencia de lo que aporta inteligencia a la máquina, y a ello se le llamo software. Esta palabra fue inventada exprofeso para indicar lo opuesto a hardware. Partes fundamentales del Hardware que componen un Ordenador Estructura básica de un ordenador: Un ordenador está formado por un conjunto de subsistemas o componentes con funciones específicas dentro del funcionamiento global del mismo. Siguiendo la arquitectura diseñada por Von Neumann a principios del siglo XX, un ordenador consta de tres subsistemas fundamentales: Unidad Central de Proceso (Unidad Aritmético-lógica, Unidad de Control), Bus, Unidad de Memoria. 19

Unidades de Almacenamiento: Las unidades de almacenamiento son soportes físicos destinados a contener grandes volúmenes de información. Son reutilizables indefinidamente y permiten dos operaciones básicas: escritura y lectura. Las unidades de almacenamiento se caracterizan fundamentalmente desde el punto de vista tecnológico por la velocidad de transferencia en MB/s y por el tiempo medio de acceso en milisegundos. Periféricos: Los periféricos son elementos físicos externos al ordenador que permiten la comunicación entre la unidad central de proceso y el exterior. Por el sentido de la comunicación, desde el punto de vista de la unidad central de proceso, se dividen en tres grupos: Periféricos de Entrada (Aquellos por los cuales se introduce la información al ordenador [Teclado, Mouse, etc.]), de Salida (Son los utilizados para visualizar y/o representar la información del ordenador [Sistema de vídeo, Impresora]), de Entrada/Salida (Son aquellos que permiten la comunicación entre ordenadores a través de un medio de transmisión físico, ya que permiten acceder a los recursos de la organización o compartir información y periféricos entre los usuarios de una comunidad [Tarjetas de Red, Pantallas Táctiles, etc.]). 20

CUANTIFICACIÓN DE BITS Y BYTES La unidad más pequeña y fundamental de los datos que posee la computadora se conoce como un bit. Es la unidad básica de un sistema de numeración binarios. La palabra bit representa una abreviación de binaty digit (dígito binaria). Los dígitos binarios sólo tienen valores de 0y 1. Tales dígitos representan encendido y apagado, falso y cierto, no y sí. Dentro de la circuitería electrónica de un sistema de computadora, estos valores son representados por la presencia o ausencia de voltaje. Un bit es la cantidad más pequeña de información, pues éstos permiten la construcción de cantidades más grandes de información. Ocho bits conforman un octeto, también llamado byte. Los bytes son la unidad práctica principal de datos de la computadora, puesto que la capacidad de memoria aleatoria y de almacenamiento permanente de una computadora es medidas en bytes. El procesamiento de números binarios del computador es totalmente invisible para el usuario humano. Las cantidades grades de un computador son medidas en kilobytes, megabytes y gigabytes. Las computadoras están diseñadas para manipular y trabajar con bytes. Hay ocho ajustes individuales a ceros o unos, activada o desactivadas, en cada byte. Por lo tanto, si cada uno de los ocho bits tienen dos posiciones (cero y uno), entonces la cantidad de combinaciones distintas posibles de los ajustes de bit en un byte es 2 8, es decir, 256. Consecuentemente, hay 256 valores diferentes o combinaciones de bits que puede tener un byte. Bi significa dos y hay solamente dos valores posibles en este sistema de numeración. Cualquier computador, incluso el más complejo es en realidad sólo un gran volumen de bits bien organizados. La información es la adquisición de conocimientos sobre una materia específica que permite ampliar lo que se posee y aplicarlo de forma práctica en la vida diaria, cotidiana, académica y laboral; el valor es el grado de utilidad, o de importancia práctica, para el que la adquiere; la utilidad se refiere al provecho, conveniencia o fruto que podemos obtener de esa información; La capacidad de aplicar la información asimilada y relacionarla a las experiencias y conocimiento previo le otorga el poder, al que indagar por información, de lograr sus metas y objetivos. 21

La información es digital en el mundo de los computadores: se compone de unidades discretas (es decir, unidades que pueden contarse), por tanto puede subdividirse. Un computador no entiende palabras, números, imágenes, notas musicales, ni siquiera las letras del alfabeto. Un computador no puede procesar información sin dividirla en unidades más pequeñas. Si consideramos a cada bit como una luz que puede estar encendida o apagada, podemos hacer que las diferentes combinaciones de luces representen mensajes distintos. (Los científicos de la computación por lo general hablan de ceros y unos, en lugar de encendido y apagado, pero el concepto no cambia.) El computador no sólo ve el número de luces encendidas, sino también su orden, de manera que 01 (apagado-encendido) es distinto de 10 (encendido-apagado). Cuando la memoria RAM del ordenador recibe una combinación de pulsos y no pulsos eléctricos correspondientes a los unos y los ceros que forman el byte 0100 0001, reconoce que le están enviando el código correspondiente a la letra A. De esa forma lo descifra y retiene como tal, permitiendo, a su vez, que esa letra se pueda representar en la pantalla del monitor. Esta operación resulta ser algo similar a lo que ocurría en el mundo analógico cuando un telegrafista recibía a través de su aparato receptor el sonido de un punto y una raya ( ) en código Morse. En cuanto éste oía ese sonido en el dispositivo receptor, sabía que le estaban transmitiendo la letra A. Lo mismo ocurría cuando las escobillas del sistema electrónico de las antiguas máquinas tabuladoras IBM leían en la tarjeta las dos perforaciones correspondientes a la letra A o cualquier otro signo alfanumérico para que la máquina lo interpretara e imprimiera. Por tanto, cuando escribimos en el teclado del ordenador letras, números y signos, se forman cadenas de bytes codificados que representan instrucciones y caracteres alfanuméricos que el ordenador interpreta como tales. Lógicamente, para escribir los programas, aplicaciones o softwares que el ordenador emplea para trabajar, el programador utiliza un lenguaje de programación denominado de alto nivel, que le permite crearlos escribiendo líneas de texto codificadas. Esas líneas de texto u órdenes el programador las puede escribir, leer y entender, no así el ordenador mientras se mantengan escritas de esa forma. Para que el ordenador pueda entender las órdenes contenidas en un programa cualquiera escrito por el programador en lenguaje de "alto nivel", es necesario que otro programa denominado compilador las traduzca y convierta a código máquina de bajo nivel. Este código, compuesto solamente de unos y ceros, es el único que entiende el ordenador y es el que le permite interpretar las órdenes contenidas en los programas para que las pueda ejecutar. 22

Construcción con bits Qué significa para el computador una combinación de bits como 01100110? No hay una respuesta única para esta pregunta; depende del contexto y el convenio. Una cadena de bits puede ser interpretada como un número, una letra del alfabeto o casi cualquier cosa. Los bits como números Como los computadores se construyen a partir de dispositivos de conmutación que reducen toda la información a ceros y unos, pueden representar los números con el sistema numérico binario un sistema que denota todos los números con combinaciones de dos dígitos. Al igual que el sistema numérico decimal que usamos todos los días, el sistema binario tiene reglas claras y consistentes para cada operación aritmética. Los bits como Códigos Los computadores actuales trabajan casi tanto con texto como con números. Para que las palabras, frases y párrafos se ajusten a los circuitos exclusivamente binarios del computador, se han creado códigos que representan cada letra, dígito y carácter especial como una cadena única de bits. El código más común, ASCII representa cada carácter como un código único de siete bits (más un octavo cuyo valor está determinado, por cuestiones técnicas, por los valores de los otros siete). Un grupo de bits también puede representar colores, sonidos, mediciones cuantitativas del ambiente o casi cualquier otro tipo de información que pueda llegar a procesar un computador. Los bits como instrucciones en los programas Los programas indican qué hacer con los datos que le proporcionamos. El computador almacena los programas como colecciones de bits, lo mismo que los datos. Los programas, al igual que los caracteres, se representan en notación binaria, utilizando códigos. Por ejemplo, el código 01101010 puede indicar al computador que sume dos números. Otros grupos de bits (instrucciones en el programa) contendrían códigos para indicar al computador dónde hallar esos números y dónde almacenar el resultado. 23

Múltiplos o Equivalencias del bit y del byte: La capacidad de almacenamiento de la memoria RAM y de los dispositivos empleados para almacenar programas, documentos de texto, datos, música, fotos e imágenes en movimiento se mide también en bytes. Pero cuando se trata de grandes cantidades de bytes contenidas en un archivo o en una carpeta incluida dentro de un dispositivo de almacenamiento masivo de información, como puede ser un disquete, disco duro, CD, DVD, etc., se utilizan los siguientes múltiplos del byte: Bit: Representado Binariamente por un 0 o 1 Byte: grupo de ocho bits. Si la mayor parte de su trabajo tiene que ver con palabras, puede pensar en un byte como un carácter de información. Kb (kilobyte): Técnicamente, 1K es 1024 bytes, ya que 1024 es 210, lo cual facilita la aritmética para los computadores binarios. Para quienes no pensamos en binario, 1000 es una buena aproximación) Mb (megabyte): aproximadamente un millón de bytes (1024*1024) Gb (gigabyte): aproximadamente 1000 megabytes. Esta unidad de medición astronómica se aplica a los dispositivos de almacenamiento más grandes que pueden conseguirse en la actualidad. Terabyte: son 1.024 Gigabytes, cerca de un billón (un millón de millones) de bytes. Por eso, cuando queremos adquirir un ordenador o computadora personal, además de interesarnos por el tipo de microprocesador que utiliza, debemos preocuparnos también por la capacidad de almacenamiento de datos en megabytes (MB) o preferiblemente en gigabytes (GB) que admiten tanto la memoria principal de trabajo (RAM), como el disco duro. 24

Tipos de bits La velocidad de transferencia de datos puede ser constante o variable: a) Tasa de bits constante (CBR): Aplica una cuantificación uniforme, por lo que no tiene en cuenta si en la señal hay zonas con mayor o menor densidad de información, sino que cuantifica toda la señal por igual. b) Tasa de bits variable (VBR): Aplica una cuantificación no uniforme que sí que hace diferenciación entre las zonas con mayor o menor densidad de información, por lo que la cuantificación resulta más eficaz. Cuantificación de la Información Toda la información que fluye en la memoria de un computador, se representa en una unidad llamada bit, un bit representa un estado o un impulso eléctrico que puede ser positivo o negativo. El bit es la unidad minina de representación de la información. La unión de 8 bits representa 1 byte. 1 byte es una letra, un número, o símbolo. La unión de 1024 bytes se conoce como 1 Kilobyte (kb), etc. Reglas de Adición: a) 0+0=0 b) 1+0=1 c) 0+1=1 d) 1+1=11 e) 10+1=11 f) 11+1=100 25

CONCLUSIÓN Las Computadoras han evolucionado grandemente, desde sus inicios como una máquina de cálculo como lo fue en el caso del Ábaco, hasta el modelo de Von Newman; la computadora moderna nació en un lapso de 5 generaciones desde los años 40 s hasta nuestros días. Toda computadora cuenta con una arquitectura, la cual es el desarrollo y estructura del ordenador, en la cual todo debe estar en perfecto estado. La Arquitectura observa y comprende 5 secciones importantes: La Unidad de Control, la Unidad de Memoria, y la Unidad Aritmético-Lógica, la Unidad de Entrada y la de Salida. Toda computadora cuenta básicamente con dos elementos que prácticamente la rigen: EL SOFTWARE Y EL HARDWARE. El Software prácticamente se define como la parte pensante de una computadora, es lógica, pero también es la parte intangible la que sólo poder ver por determinados gráficos, pero no tocar, comprende desde el arranque del sistema, hasta la utilización de los programas que tiene un sistema operativo. Está conformado por tres divisiones: El Software de Programación o de Desarrollo, el de Aplicación y el de Sistema. El Hardware es la parte tangible, y que cuenta con circuitos y mecanismos físicos que dan el funcionamiento de las computadoras. Compuesto por las siguientes partes indispensables: La Tarjeta Madre, el CPU, los Periféricos (Entrada, Salida, Entrada/Salida), los Dispositivos de Almacenamiento, la Memoria (RAM, ROM y PROM). Como conclusión ante estos dos temas integrales de la Computadora, se debe destacar que no hay funcionamiento del Hardware sin Software, ni Software sin Hardware porque van ligados. En el trabajo de investigación elaborado resalta otro y creo uno de los más importantes temas: la Cuantificación de Bits, los bits son la unidad más pequeña de información que utilizan el Sistema Binario para calcular, en el documento menciona que una computadora no comprende letras, números u otro tipo de carácter, si no es pasado a lengua de Alto Nivel, un bit agrupado 8 veces conforma un Byte, y así sucesivamente se crean los kb, MB, GB, TB (1024 GB, aproximadamente un billón de bits), hasta llegar a los Yottabyte YB (un billón de Terabytes TB ). 26

OBSERVACIONES Pienso es conveniente que los temas de investigación fueran la Arquitectura y la Historia de las computadoras, porque son temas que estamos viendo en la Unidad I, y prácticamente, esta investigación sirve como medio de aprendizaje o de reforzamiento a lo visto en clase. La cuantificación de Bits es un tema que tiene sus complejidades pero que al final de cuentas nos ayuda a comprender el medio reducido de almacenamiento y las formas captadas de la información en las computadoras. En lo personal me parece un tema de interés que nos llevará a comprender grandes conocimientos en cuanto al Sistema Binario. 27

EGRAFÍA Historia de la computación.- [En Línea].- [Autor: Anónimo].- [Consultado el 16/02/2015].- Disponible en: https://www.uclm.es/area/egi/ofitec/descarga/historia%20computacio N.PDF Arquitectura básica de una computadora.- [En Línea].- [Autor: Anónimo].- [Consultado el 17/02/2015].- Disponible en: http://isa.uniovi.es/docencia/sigc/pdf/arquitectura_basica.pdf Informática.- [En Línea].- [Autor: Prof. Edgar Lopategui].- [Consultado el 17/02/2015].- Disponible en: http://biblio3.url.edu.gt/libros/provinciales/computadoras.pdf Arquitectura de las Computadoras.- [En Línea].- [Autor: Instituto Tecnológico de Celaya: Programación/Ingeniería Química ].- [Consultado el 17/02/2015].- Disponible en: http://www.iqcelaya.itc.mx/~vicente/programacion/arquitectura.pdf Arquitectura de una Computadora.- [En Línea].- [Autor: Departamento de Ingeniería Eléctrica-Universidad Tecnológica Nacional].- [Consultado el 17/02/2015].- Disponible en: http://mmc.geofisica.unam.mx/prog2/arch/arquitectura/arquitectura01.pdf Fundamentos De Informática Y Programación: Capitulo 2: Soporte lógico de un computador.- [En Línea].- [Autor: Anónimo].- [Consultado el 17/02/2015].- Disponible en: http://robotica.uv.es/pub/libro/pdfs/capi2.pdf Evolución histórica de los computadores.- [En Línea].- [Autor: Anónimo].- [Consultado el 17/02/2015].- Disponible en: http://www.dacya.ucm.es/hidalgo/estructura/historia.pdf 28

Conceptos básicos de software.- [En Línea].- [Autor: Anónimo].- [Consultado el 17/02/2015].- Disponible en: http://www.ita.edu.co/archivos/oda/software/software-concepto-tipos.pdf Informática Básica: Tema 3: Software: Sistemas Operativos y Aplicaciones.- [En Línea].- [Autor: Licesio J. Rodríguez-Aragón, Departamento de Informática, Estadística y Telemática, Universidad Rey Juan Carlos].- [Consultado el 17/02/2015].- Disponible en: https://www.uclm.es/profesorado/licesio/docencia/ib/ibtema3a.pdf Informática: Unidad temática 2 El Hardware Evolución y Características.- [En Línea].- [Autor: Facultad de Ingeniería U.N.N.E.].- [Consultado el 17/02/2015].- Disponible en: http://ing.unne.edu.ar/pub/informatica/u2.pdf M. - Computación II: Bits, Bytes y Datos y tipos de datos.- [En Línea].- [Autor: Ángel A. Zambrano].- [Consultado el 17/02/2015].- Disponible en: http://webdelprofesor.ula.ve/economia/angelz/archivos/los_bits.pdf Accesibilidad en aplicaciones informáticas.- [En Línea].- [Autor: Mª Paz Prendes Espinosa-Lucía Amorós Poveda].- [Consultado el 17/02/2015].- Disponible en: http://tecnologiaedu.us.es/cuestionario/bibliovir/paz10.pdf Computación: Informática Hoy: Una mirada a la tecnología del mañana : capítulo 2 Conceptos básicos de Hardware.- [En Línea].- [Autor: G. Beekman].- [Consultado el 17/02/2015].- Disponible en: http://users.dsic.upv.es/asignaturas/fade/oade/download/hw.pdf Hardware de un Ordenador Personal.- [En Línea].- [Autor: Ángel Martínez Sánchez].- [Consultado el 17/02/2015].- Disponible en: http://www2.montes.upm.es/servicios/informatica/hardware.pdf Así Funcionan los Bits y los Bytes.- [En Línea].- [Texto e ilustraciones: José Antonio E. García].- [Consultado el 18/02/2015].- Disponible en: http://www.asifunciona.com/informatica/af_bits/af_bits_3.htm 29

Tasa de bits.- [En Línea].- [Autor: Anónimo].- [Consultado el 18/02/2015].- Disponible en: http://es.wikipedia.org/wiki/tasa_de_bits Cuantificación de la Información.- [En Línea].- [Autor: Jorge Felipe].- [Consultado el 18/02/2015].- Disponible en: http://www.jorgefelipe.cl/blog/cuantificacion-dela-informacion/ Un Poco Sobre los Bits y Bytes.- [En Línea].- [Publicado por: Ingeniero en Sistemas el 15 junio de 2011].- [Consultado el 18/02/2015].- Disponible en: http://www.ingenierosistemas.com/un-poco-sobre-los-bits-y-bytes/2011/06/15/ Clasificación del Software.- [En Línea].- [Autor: Anónimo].- [Consultado el 18/02/2015].- Disponible en: http://es.wikipedia.org/wiki/software#clasificaci.c3.b3n_del_software Arquitectura de Computadoras.- [En Línea].- [Autor: Anónimo].- [Consultado el 18/02/2015].- Disponible en: http://es.wikipedia.org/wiki/arquitectura_de_computadoras 30

ANEXOS Anexo 1. Maquina Analítica de Charles Babbage Anexo 2. ENIAC Anexo 3. UNIVAC I 31

Anexo 4. IMB complementa el Sistema 360 Anexo 5. Primeros Procesadores Anexo 6. Windows 98 32

Anexo 7. Mac Book Anexo 8. Visión típica de una arquitectura de computadora como una serie de capas de abstracción: hardware, firmware, ensamblador, kernel, sistema operativo y aplicaciones 33

Anexo 9. Diagrama de una Computadora según su Arquitectura Anexo 10. Proceso de Arranque de un Sistema Operativo 34

Anexo 11. El trabajo en Equipo del Hardware y el Software Anexo 12. Software de Sistema Anexo 13. Software de Aplicación 35

Anexo 14. Software de Desarrollo o Programación de Software Anexo 15. Esquema Elemental de un Ordenador Anexo 16. El Disco Duro como Unidad de Almacenamiento 36

Anexo 17. Periféricos Anexo 18. Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm corresponden a 512 bytes. Anexo 19. Cuatro posibles combinaciones con dos bits 37