Introducción a la informática



Documentos relacionados
Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte)

Tema 1. Representación de la información MME

by Tim Tran:

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

Matemática de redes Representación binaria de datos Bits y bytes

SISTEMAS DE NUMERACIÓN. Sistema decimal

Los sistemas de numeración se clasifican en: posicionales y no posicionales.

Transformación de binario a decimal. Transformación de decimal a binario. ELECTRÓNICA DIGITAL

TEMA 2: Representación de la Información en las computadoras

TEMA 5. ELECTRÓNICA DIGITAL

SISTEMAS NUMÉRICOS (SISTEMAS DE NUMERACIÓN)

SISTEMAS NUMERICOS CAMILO ANDREY NEIRA IBAÑEZ UNINSANGIL INTRODUCTORIO A LA INGENIERIA LOGICA Y PROGRAMACION

Materia: Informática. Nota de Clases Sistemas de Numeración

Naturaleza binaria. Conversión decimal a binario

Primeros conmutadores: diodos de cristal y de tubos de vacío (1906). Transistor (TRT): más pequeño y fiable, de material semiconductor (1950).

UNIDADES DE ALMACENAMIENTO DE DATOS

Sistema binario. Representación

Capítulo 1: Sistemas de representación numérica Introducción. Dpto. de ATC, Universidad de Sevilla - Página 1 de 8

TEMA 1: SISTEMAS INFORMÁTICOS. Parte 2: representación de la información

Sistemas de numeración

INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERIA MECANICA Y ELECTRICA INGENIERIA EN COMUNICACIONES Y ELECTRÓNICA ACADEMIA DE COMPUTACIÓN

DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO

UD 1. Representación de la información

21/02/2012. Agenda. Unidad Central de Procesamiento (CPU)

1. Informática e información. 2. Sistemas de numeración. 3. Sistema binario, operaciones aritméticas en binario, 4. Sistemas octal y hexadecimal. 5.

Curso Completo de Electrónica Digital

1. SISTEMAS DIGITALES

Introducción a Códigos

Fundamentos de Programación. Sabino Miranda-Jiménez

Instituto Tecnológico de Celaya

28 = =


Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal

Capítulo 2 REPRESENTACIÓN DE LOS DATOS. Presentación resumen del libro: "EMPEZAR DE CERO A PROGRAMAR EN lenguaje C"

SISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: = =8245,97

INSTITUTO UNIVERSITARIO DE TECNOLOGÍA JOSE LEONARDO CHIRINO PUNTO FIJO EDO-FALCON CATEDRA: ARQUITECTURA DEL COMPUTADOR PROFESOR: ING.

Representación de Datos. Una Introducción a los Sistemas Numéricos

ELECTRÓNICA DIGITAL. Sistemas analógicos y digitales.

Introducción a la Programación 11 O. Humberto Cervantes Maceda

Tema 2. La Información y su representación

TECNOLOGÍAS DE LA INFORMACIÓN. La sociedad de la información y las nuevas tecnologías.

Curso Completo de Electrónica Digital

Informática. Temas 27/03/2014. Carrera: Bioingeniería Profesora: Lic. S. Vanesa Torres JTP: Ing. Thelma Zanon

Hardware I - Datos e información en el ordenador

Sistemas de Computadoras Índice

Introducción a los Sistemas Digitales

INFORMÁTICA. Matemáticas aplicadas a la Informática

CURSO TECNOLOGÍA TECNOLOGÍA 4º ESO TEMA 5: Lógica binaria. Tecnología 4º ESO Tema 5: Lógica binaria Página 1

UNIDADES FUNCIONALES DEL ORDENADOR TEMA 3

En la actualidad ASCII es un código de 8 bits, también conocido como ASCII extendido, que aumenta su capacidad con 128 caracteres adicionales

Sistemas de numeración, operaciones y códigos.

ANEXO 2: REPRESENTACION DE LA INFORMACION EN LOS COMPUTADORES

El sistema decimal, es aquél en el que se combinan 10 cifras (o dígitos) del 0 al 9 para indicar una cantidad específica.

ELECTRÓNICA DIGITAL. Una señal es la variación de una magnitud que permite transmitir información. Las señales pueden ser de dos tipos:

Notas de Teórico. Sistemas de Numeración

OR (+) AND( ). AND AND

8 millares + 2 centenas + 4 decenas + 5 unidades + 9 décimos + 7 céntimos

CONCEPTOS BÁSICOS DE INFORMÁTICA. REPRESENTACIÓN DE LA INFORMACIÓN.

Clase 02: Representación de datos

Sistemas de Numeración

TEMA II: REPRESENTACIÓN DE LA INFORMACIÓN

Representación de la Información

Maria José González/ Dep. Tecnología

UNIVERSIDAD BOLIVARIANA DE VENEZUELA

Unidad Didáctica. Códigos Binarios

Sistemas de Numeración Operaciones - Códigos

TEMA I: INTRODUCCIÓN A LA ELECTRÓNICA DIGITAL

1. Representación de la información en los sistemas digitales

EL LOGRO DE SU FORMACIÓN DEPENDE TAMBIÉN DE USTED INSTRUCTOR: ING. JULIO CÉSAR BEDOYA PINO ELECTRÓNICA DIGITAL 2014

UNIDAD DIDÁCTICA: ELECTRÓNICA DIGITAL

13/10/2013. Clase 02: Sistemas de Numeración. Sistemas Digitales y Arquitectura de Computadoras. Ing. Christian Lezama Cuellar.

Lección 1. Representación de números

❷ Aritmética Binaria Entera

La Computadora. Operaciones de entrada al ser receptora de información. Operaciones de cálculo, lógica y almacenamiento.

Sistemas de Numeración

Informática Bioingeniería

ACTIVIDADES TEMA 1. EL LENGUAJE DE LOS ORDENADORES. 4º E.S.O- SOLUCIONES.

Ecuaciones de primer grado con dos incógnitas

Materia Introducción a la Informática

INTRODUCCION A LA PROGRAMACION DE PLC

153 = 1x x10 + 3x1

Lógica Binaria. Contenidos. Objetivos. Antes de empezar 1.Introducción... pág. 2. En esta quincena aprenderás a:

Tema I. Sistemas Numéricos y Códigos Binarios

Lenguajes de Programación

Sistemas Numéricos. M. en C. Erika Vilches

Divisibilidad y números primos

Figura 1: Suma binaria

Presentación de la materia Historia de las computadoras

UNIDAD Nº 1: 1. SISTEMAS DE NUMERACION. Formalizado este concepto, se dirá que un número X viene representado por una cadena de dígitos:

CAPÍTULO I 1. SISTEMAS DE NUMERACIÓN

CONTENIDO. 1. Introducción. 2. Reseña histórica del computador. 3. Definición de computador.

UNIDAD 3: ARITMÉTICA DEL COMPUTADOR

LECCIÓN 8: CIRCUITOS Y ALGORITMOS DE MULTIPLICACIÓN DE ENTEROS

Informática 1 Sistemas numéricos: decimal, binario, octal y hexadecimal FCFA Febrero 2012

1 LA INFORMACION Y SU REPRESENTACION

Tema 2 : Códigos Binarios

Sistemas Digitales Ingeniería Técnica en Informática de Sistemas Curso El sistema de numeración binario

Introducción. 1. Lenguajes de máquina 2. Lenguajes de ensamblador 3. Lenguajes de alto nivel

Informática Básica: Representación de la información

Transcripción:

1.1. Presentación Tema 1. Introducción a la informática Un elemento esencial en el progreso de la vida del hombre ha sido y sigue siendo la información. La información es toda forma de representación de hechos, objetos, valores, conceptos, etc., Que permite la comunicación entre las personas, además de adquirir conocimientos de las cosas que nos rodean. La informática proporciona, por medio del uso de maquinas especiales una valiosa ayuda en aquellos trabajos rutinarios y repetitivos tanto en la gestión de empresa como en los cálculos científicos. Informática es la ciencia del tratamiento automático y racional de la información. El vertiginoso desarrollo de la informática en las últimas décadas ha impulsadoa su vez multitud de áreas de la sociedad (tecnología, economía, ciencias, investigación...),de manera que, hoy en día, parece imposible pensar en la mayoría de las actividades de nuestra sociedad sin que aparezca algún sistema informático. La mayoría de las personas utilizan diariamente un ordenador, ya sea directa y voluntariamente (escribir una carta, consultar el correo electrónico, escuchar música, navegar por Internet, ver una película, realizar cálculos complejos...), ya sea indirectamente al sacar un billete de tren, utilizar un cajero automático, hacer la declaración de la renta, etc. Un ordenador puede definirse como: El dispositivo o conjunto de dispositivos programables compuesto por una o varias unidades de proceso, recursos y equipos periféricos destinados al procesamiento de grandes cantidades de datos, capaz de efectuar distintos tipos de cálculos, incluyendo operaciones aritméticas y lógicas a gran velocidad. 1.1.1 Elementos constitutivos de un sistema informático. Un sistema informático está formado por: Una parte física (Hardware) Una parte lógica (Software) 1

Las personas La parte física esta constituida por todos los elementos materiales que configuran las máquinas, es el computado propiamente dicho. Recibe el nombre global de hardware. La parte lógica está formada por le conjunto de órdenes que controlan el trabajo que realiza el ordenador. Recibe el nombre genérico de software. El hardware es el elemento físico de un sistema informático, es decir, está construido por un conjunto de materiales como son el ordenador, los periféricos, los cables, los circuitos electrónicos y en definitiva, todos aquellos elementos que tienen entidad física. La parte física o hardware no puede realizar ningún trabajo por sí sola; necesita de otro elemento: el software. Software: Es la parte lógica que proporciona al equipo físico de un sistema informático la capacidad para realizar cualquier tipo de trabajo. Como hemos dicho anteriormente, el ordenador procesa información y lo hace tomando datos (información aún no elaborada) como punto de partida. Procesados esos datos por medio de un conjunto de órdenes o instrucciones (proceso o algoritmo), se convierten en información ya elaborada o resultados Este proceso recibe en informática el nombre de tratamiento de la informática o proceso de la información. 1.2. Historia de la computación La primera máquina diseñada para realizar cálculos fue el ábaco. Siglos después (alrededor del año 1620), aparecieron las calculadoras mecánicas basadas en engranajes, capaces de realizar operaciones elementales. Éstas no El ábaco eran máquinas automáticas ya que requerían la intervención humana durante el proceso de cálculo. El primer calculador mecánico apareció en 1642 tan sólo 25 años después de que Napier publicase una memoria describiendo su máquina. El artífice de esta máquina fue el filósofo francés Blaise Pascal (1.623-1.662) en cuyo honor se llama Pascal uno de los lenguajes de programación que más impacto ha 2 Máquina de Pascal

causado en los últimos años. A los 18 años Pascal deseaba dar con la forma de reducir el trabajo de cálculo de su padre que era un funcionario de impuestos. Su principio de funcionamiento era el mismo que rige los cuentakilómetros de los coches actuales; una serie de ruedas tales que cada una de las cuales hacía avanzar un paso a la siguiente al completar una vuelta. Las ruedas estaban marcadas con números del 0 al 9 y había dos para los decimales y 6 para los enteros con lo que podía manejar números entre 000.000 01 y 999.999 99. Estos dispositivos mecánicos fueron evolucionando hasta que en 1890 Herman Hollerith creó una máquina para realizar el censo de Estados Unidos. Esta máquina utilizaba un sistema electrónico para la lectura de las tarjetas perforadas y un sistema mecánico para calcular. En 1924 la compañía fundada por Hollerith cambia de nombre para denominarse International Business Machines (IBM). Comienza la época de los computadores. Los ordenadores que han ido apareciendo desde los años cuarenta se han agrupado en cinco generaciones, que se diferencian por la tecnología y la arquitectura de sus componentes. 1.2.1 Primera generación: 1940-1960 Es la época de los ordenadores que funcionaban con válvulas de vacio y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos había que modificar directamente los valores de los circuitos de las máquinas programación muy complicada, en lenguaje ensamblador. En 1941 la Escuela de Eléctrica de Moore inicia la construcción del ENIAC (Electronic Numerical Integrator and Computer), que fue el primer computador basado en válvulas de vacío. El ENIAC se terminó en torno al año 1946, pesaba más de 30 toneladas y su programación era totalmente manual, similar al trabajo de las antiguas operadoras telefónicas. En 1945 el matemático húngaro John von Neumann publica el artículo Firs Draft of a Report on the EDVAC, en el que proponía un nuevo computador que permitiría cargar en memoria un programa previamente generado. El EDVAC nunca llegaría a construirse, pero las ideas de von Neumann resultaron tan fundamentales para el desarrollo posterior que es considerado el padre de los computadores. En 1951 aparece el UNIVAC (UNIVersAl Computer); fue el primer computador comercial; disponía de mil palabras de memoria central (una palabra equivalía a un carácter) y podía leer cintas magnéticas; se utilizó para procesar el censo de Estados Unidos. Después IBM desarrolló el IBM 701, del cual se entregaron 18 unidades entre 1953 y 1957. 3

1.2.2 Segunda generación: 1960-1965 El verdadero desarrollo de los computadores ha sido posible, principalmente, por la invención en 1947 del transistor por parte de los laboratorios Bell. El transistor permitía realizar la misma función que las válvulas de vacío, pero ocupando mucho menos espacio, consumiendo menos y con mayor fiabilidad. La aparición del transistor y su posterior evolución permitieron que los computadores fuesen más rápidos, pequeños y baratos. En esta generación se ampliaron las memorias auxiliares y se crearon los discos magnéticos de gran capacidad. Se diseñaron las impresoras y lectores ópticos y aparecieron los nuevos lenguajes de programación denominados Lenguajes de Alto Nivel. El primer computador construido con transistores fue el ATLAS, desarrollado en 1962 por la Universidad de Manchester. 1.2.3 Tercera generación: 1965-1975 Con la aparición en los años sesenta de los primeros circuitos integrados, surge la tercera generación de computadores, caracterizada por un aumento de la velocidad de procesamiento y por la aparición de los primeros sistemas operativos para la gestión de recursos del computador. La capacidad de integración ha sido decisiva en el desarrollo de los computadores. Así, en 20 años se pasó de integrar unos pocos elementos por circuito integrado a varios millones de transistores. IBM produce el primer computador basado totalmente en circuitos integrados, la serie 360. Este modelo incorporaba un sistema operativo denominado OS que incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares. 1.2.4 Cuarta generación: 1975-1990 La característica más importante de esta generación es la aparición de los microprocesadores. Básicamente, un microprocesador es una CPU integrada en una sola pastilla de circuito impreso. Son circuitos integrados de alta densidad, con una velocidad muy elevada. El primer microprocesador fue el INTEL 4004. Otro hecho importante acaecido en esta época fue la aparición de las pastillas de memoria de semiconductor, con lo que se abandonan las memorias de ferrita. 4

1.2.5 Quinta generación: 1990-hoy Los avances en la Microelectrónica, unidos a la gran competencia entre compañías como Apple, Motorola, Cyrix, AMD e Intel, provocan un continuo aumento de la integración y el desarrollo de nuevas arquitecturas computacionales, lo cual contribuye a disponer en la actualidad de ordenadores cada vez más potentes y baratos. Actualmente existen dos líneas de investigación fundamentales en el campo de los computadores: 1. HARDWARE. La miniaturización que se está alcanzando es tal que se prevé que en breve comiencen a no cumplirse las leyes de la física clásica, interfiriendo procesos cuánticos (es decir, se está alcanzando el límite de integración, tal y como se realiza actualmente). Surgen don líneas de trabajo complementarias: Procesamiento en paralelo, mediante nuevas arquitecturas de computación y circuitos integrados de gran velocidad, siempre utilizando la tecnología actual basada en silicio. Nuevas filosofías de computación, que son: Biológica, empleando moléculas como unidad de almacenamiento y cálculo. Cuántica, empleando las leyes de la Mecánica cuántica para codificar la información. 2. SOFTWARE. Manejo del lenguaje natural y sistemas de inteligencia artificial. 1.3. Triodos -Transistores Circuitos integrados Microprocesadores 1.3.1 Triodo o válvula de vacío Se denomina triodo a la válvula termoiónica (válvula de vacío) de tres electrodos y es un componente electrónico basado en la propiedad que tienen los metales en caliente de liberar electrones desde su superficie. El primero es el cátodo, que al calentarse produce electrones. El segundo es el ánodo, que está cargado positivamente y, por tanto, atrae a los electrones. El tercero es la rejilla que se sitúa entre el cátodo y el ánodo. La tensión aplicada a la rejilla hace que el flujo de electrones desde el cátodo al ánodo sea mayor o menor. Esto es muy interesante pues aplicando una señal de muy débil intensidad entre cátodo y rejilla podemos conseguir que la variación del flujo de electrones entre éste y el ánodo sea muy grande. Es decir, con una pequeña tensión controlamos una gran corriente. A ese fenómeno se le llama amplificación. Por eso, el triodo es un amplificador. También puede utilizarse para más funciones tales como rectificador o como puertas que dejan pasar la corriente o no (on-off) y que son la base de la electrónica digital. 1.3.2 El transistor El transistor Es un dispositivo electrónico semiconductor (un elemento que se comporta como conductor o como aislante dependiendo del campo eléctrico 5

en el que se encuentre) que se utiliza como amplificador o conmutador electrónico. Es un componente clave en toda la electrónica moderna, donde es ampliamente utilizado formando parte de conmutadores electrónicos, puertas lógicas, memorias de ordenadores y otros dispositivos. En el caso de circuitos analógicos los transistores son utilizados como amplificadores, osciladores y generadores de ondas. Sustituto de la válvula termoiónica (de vacío) de tres electrodos o triodo. El transistor es un elemento electrónico que permite reemplazar al tubo de vacío con las siguientes ventajas: su consumo de corriente es mucho menor con lo que también es menor su producción de calor. Su tamaño es también mucho menor. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta de caza. Esto permite una drástica reducción de tamaño. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios las de los transistores vienen a ser de 10 voltios con lo que los demás elementos de circuito también pueden ser de menor tamaño al tener que disipar y soportar tensiones mucho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío. Como podemos ver el simple hecho de pasar del tubo de vacío al transistor supone un gran paso en cuanto a reducción de tamaño y consumo y aumento de fiabilidad. Las máquinas de la segunda generación emplean además algunas técnicas avanzadas no sólo en cuanto a electrónica sino en cuanto a informática y proceso de datos como por ejemplo los lenguajes de alto nivel. 1.3.3 El circuito integrado La tecnología microelectrónica actual permite la elevada integración de transistores actuando como conmutadores en redes lógicas dentro de un pequeño circuito integrado. Circuito integrado Un circuito integrado es una pastilla o chip en la que se encuentran todos o casi todos los componentes electrónicos necesarios para realizar alguna función. Estos componentes son transistores en su mayoría, aunque también contienen resistencias, diodos, condensadores, etc. El primer circuito integrado o chip fue desarrollado en 1958 por el ingeniero Jack Kilby, justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo que integraba seis transistores en una misma base semiconductora. En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información. Los circuitos integrados se clasifican en dos grandes grupos: Circuitos integrados analógicos. 6

Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos. Circuitos integrados digitales. Pueden ser desde simples son puertas lógicas (Y, O, NO) hasta los más complicados como los microprocesadores. 1.3.4 El microprocesador Un microprocesador es un conjunto de circuitos electrónicos altamente integrado para cálculo y control computacional. El microprocesador es utilizado como Unidad Central de Proceso en un sistema microordenador. Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van actualmente desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección. 1.4. Sistemas y códigos de numeración Un sistema de numeración es una forma de representar cualquier cantidad numérica. Casi todos los sistemas de numeración utilizados en la actualidad son de tipo polinomial. Todo sistema polinomial cumple las siguientes características: Todo número es una expresión formada por un conjunto de símbolos, llamados dígitos, cada uno con un valor fijo y diferente a los demás. El número de símbolos distintos que se pueden usar en un determinado sistema de numeración constituye su base, es decir, en base 10 los números que podemos representar son {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}, en base 2 son {0, 1}, en base 8 son {0, 1, 2, 3, 4, 5, 6, 7} y en base 16 {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F}. El valor numérico que expresa una determinada combinación de dígitos en una base de numeración dada depende de dos factores: del valor de los dígitos y de la posición de cada uno de ellos en el polinomio. 7

Cada posición del dígito tiene un valor intrínseco que aumenta de derecha a izquierda según potencias sucesivas de la base del sistema de numeración empleado. El dígito que aparece en el extremo izquierdo es el de más valor o más peso y el colocado en el extremo derecho es el de menos valor o menor peso. El sistema de numeración decimal también recibe el nombre de sistema posicional, porque el valor de cada uno de sus símbolos depende de su posición relativa dentro de la cantidad a la que pertenece. Por ejemplo, la cantidad decimal 136 está construida tal como se indica en la figura. El sistema decimal utiliza una base de potencias o raíz de valor diez. Entonces, una determinada cantidad, como la 136, puede expresarse así: 136=1x10 2 + 3x10 1 + 6x10 0 1.4.1 El sistema de numeración binario. El sistema de base 2 utiliza sólo dos símbolos, {0,1}, denominados bits. Es el sistema utilizado en los sistemas digitales. La unidad de almacenamiento y transmisión básica de todo sistema digital es el bit, es decir, en una posición básica de memoria se puede encontrar un 1 o un 0..Bit es el acrónimo de Binary digit. (dígito binario). Mientras que en nuestro sistema de numeración decimal se usan diez dígitos, en el binario se usan solo dos dígitos, el 0 y el 1. Un bit, (dígito binario), puede representar uno de esos dos valores, 0 ó 1. Podemos imaginarnos a un bit como una bombilla que puede estar en uno de dos estados(apagado o encendido) El bit es la unidad mínima de información empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cualquiera, como: verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado", y el otro al estado de "encendido". Con un bit podemos representar solamente dos valores. Para representar, o codificar, más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro 8

combinaciones posibles: Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, podríamos por ejemplo, representar los colores rojo, verde, azul y negro. A través de secuencias de bits, se puede codificar cualquier valor discreto como, números, palabras, e imágenes. Cuatro bits pueden representar hasta 2 4 = 16 valores diferentes, ocho bits forman un octeto, y se pueden representar hasta 2 8 = 256 valores diferentes. En general, dependiendo del número de bits, se pueden representar 2 n valores diferentes, donde n es el número de bits. En la memoria de un ordenador se almacenan los datos. En su interior hay pequeños conmutadores parecidos a los relés, pero mucho más sofisticados, que reciben el nombre de transistores. Cada transistor, únicamente, puede tener dos estados:on/off o cerrado/abierto, con lo que podrá almacenar un solo bit. Así por ejemplo, la cantidad binaria anterior 10011(2, ocupara 5 bits en estado respectivo ON, OFF, OFF, ON, ON. Valor posicional En los sistemas de numeración, los dígitos tienen un valor dependiendo del lugar donde se encuentran, su valor posicional. En el sistema decimal, por ejemplo, el dígito 5 puede valer 5 si está en la posición de las unidades, pero vale 50 si está en la posición de las decenas, y 500 si está en la posición de las centenas. Generalizando, cada vez que nos movemos una posición hacia la izquierda el dígito vale 10 veces más, y cada vez que nos movemos una posición hacia la derecha, vale 10 veces menos. Centena Decena Unidad x 100 x 10 x 1 Así, el número 153 en realidad es: 1 centena + 5 decenas + 3 unidades, es decir, 100 + 50 + 3 = 153. En el sistema binario es similar, excepto que cada vez que un dígito binario (bit) se desplaza una posición hacia la izquierda vale el doble (2 veces más), y cada vez que se mueve hacia la derecha, vale la mitad (2 veces menos). Valor del bit dependiendo de su posición 64 32 16 8 4 2 1 Abajo vemos representado el número 19.( 16 + 2 + 1 = 19.) 9

Subíndices Cuando se trabaja con varios sistemas de numeración, o cuando no está claro con cual se está trabajando, es típico usar un subíndice para indicar el sistema de numeración de un número. El 10 es el subíndice para los números en el sistema decimal y el 2 para los del binario. En el ejemplo de arriba se muestran dos números en sistema decimal y su equivalente en binario. Esta igualdad se representa de la siguiente manera: 1910 = 100112 Conversión binario-decimal. Todas las cantidades que se dan al ordenador las expresamos en decimal porque, como ya hemos dicho, es el sistema de numeración posicional habitual para el hombre. El ordenador las convierte en binarias; lo contrario ocurre cuando extraemos los datos del ordenador. Conversión decimal-binario. Se divide el número decimal entre 2 cuyo resultado entero se vuelve a dividir entre 2 y así sucesivamente. Una vez llegados al 1 indivisible se cuentan el último cociente, es decir el uno final (todo número binario excepto el 0 empieza por uno), seguido de los residuos de las divisiones subsiguientes. Del más reciente hasta el primero que resultó. Este número será el binario que buscamos. A continuación se puede ver un ejemplo con el número decimal 100 pasado a binario. 100 _2 0 50 _2 0 25 _2 --------> 100 => 1100100 1 12 _2 0 6 _2 0 3 _2 10

1 1 Otra forma de conversión consiste en un método parecido a la factorización en números primos. Es relativamente fácil dividir cualquier número entre 2. Este método consiste también en divisiones sucesivas. Dependiendo de si el número es par o impar, colocaremos un cero o un uno en la columna de la derecha. si es impar, le restaremos uno y seguiremos dividiendo por dos, hasta llegar a 1. Después, sólo nos queda coger el último resultado de la columna izquierda (que siempre será 1) y todos los de la columna de la derecha y ordenar los dígitos de abajo a arriba. Ejemplo: 100 0 50 0 25 1 --> al ser impar restaremos 1, 25-1=24 y seguimos dividiendo por 2. 12 0 6 0 3 1 1 ------->100 => 1100100 1.4.2 Sistemas octal y hexadecimal La utilización de números en sistema binario puede ser muy incómoda por la elevada cantidad de dígitos necesarios para representar grandes magnitudes. Por ejemplo, para representar 23410, se necesitan ocho dígitos. Para facilitar la manipulación de estos números se emplean, fundamentalmente, el código octal (base 8) y el hexadecimal (base 16). Existe gran facilidad de conversión entre estos dos códigos y el binario ya que sus bases son potencias de 2. De esta forma, a cada dígito octal le corresponden tres dígitos binarios y a cada dígito hexadecimal, cuatro binarios. 11

Cconversión entre bases Si se quieren realizar operaciones con números en distintas bases, suele ser necesario hacer cambios de base, esto es, dado un Nb1, queremos obtener Nb2.Para llevar a cabo este cambio, existen distintos métodos, según sea el par de bases de trabajo. El primer paso es muy sencillo, simplemente hay que descomponer el número en su representación polinomial y sumar sus elementos. Para realizar el segundo paso de la conversión, se tratan de forma separada la parte fraccionaria y la parte entera del número en base 10 a convertir. Parte entera. Para realizar la conversión de la parte entera, es necesario calcular los coeficientes sobre la nueva base b2. Para ello se divide el número en base 10 por la base b2 sucesivamente, obteniendo los coeficientes del resto de cada división hasta que se obtenga un cociente menor que b2; ese cociente será el último coeficiente. 12

Parte fraccionaria. Abordaremos ahora la conversión de la parte fraccionaria de un número en base 10. El proceso es similar al anterior, pero multiplicando la parte fraccionaria por la nueva base b2; del resultado obtenido en cada multiplicación, la parte entera será el coeficiente y la parte fraccionaria se multiplicará de nuevo por b2 Cuando se utilizan los sistemas binarios, octal y hexadecimal, puede emplearse el método general de conversión entre bases, aunque existen métodos más rápidos que no requieren el paso intermedio por base 10, ya que sus bases son potencias de 2. De esta forma, a cada dígito octal le corresponden tres dígitos binarios y a cada dígito hexadecimal, cuatro binarios. 1.4.3 Codificación de caracteres La codificación de caracteres es el código que empareja cada carácter de un lenguaje natural con un símbolo en otro sistema de representación, como un número o una secuencia de pulsos eléctricos en un sistema electrónico. Ejemplos comunes son el código Morse, la norma ASCII o la UTF-8. La unidad más pequeña de información que un computador puede procesar es el dígito binario, o bit. En los años 1960, cundió la costumbre de agrupar tales bits en octetos (secuencias de ocho) terminó siendo sustituido por su casi- 13

sinónimo byte. La transmisión de datos de un computador a otro pasó a ser vista como la transmisión de una secuencia de octetos, cada uno de los cuales correspondería a un número, cada número correspondiente a un símbolo: octeto ==> número ==> símbolo Llamamos codificación de carácteres al procedimiento que asocia un símbolo a cada número entendiéndose que los números que en este contexto se llaman "códigos" deben ser enteros, no negativos, dentro de un conjunto finito (p.ej. {0 a 127}, o {0 a 255}). Diferentes fabricantes de maquinaria usaban distintas codificaciones, hasta que en 1968 se llegó a una norma que hasta el día de hoy se usa y se conoce como "ASCII" (American Standard Code for Information Interchange). Sin embargo, el problema de estos códigos de 8 bits es que cada uno de ellos se define para un conjunto de lenguas con escrituras semejantes y por tanto no dan una solución unificada a la codificación de todas las lenguas del mundo. Es decir, no son suficientes 8 bits para codificar todos los alfabetos y escrituras del mundo. Recuerda que con 8 posiciones binarias se pueden obtener 256 combinaciones distintas (2 8 =256). La norma de codificación más universal en la actualidad, y desde 1991, se llama Unicode: es una gran tabla, que en la actualidad asigna un código a cada uno de los más de cincuenta mil símbolos, los cuales abarcan todos los alfabetos europeos, ideogramas chinos, japoneses, coreanos, muchas otras formas de escritura, y más de un millar de símbolos especiales. 1.4.4 Bits, bytes y sus múltiplos. Cada uno de los dígitos 0 o 1, que componen una cantidad binaria, se denomina bit. Los prefijos binarios son usados frecuentemente para expresar grandes cantidades de bytes de ocho bits. Son derivados, aunque diferentes, de los prefijos del Sistema Internacional de Unidades como kilo, mega, giga y otros. La práctica espontánea de los científicos de la computación fue acortar los prefijos K, M y G para kilobyte, megabyte y gigabyte. No obstante, el uso incorrecto de los prefijos del Sistema Internacional (con base 10) con si fueran prefijos binarios (con base 2) es causa de serias confusiones. 14

Uso convencional En la práctica popular, los prefijos binarios corresponden a números similares de los factores indicados en el Sistema Internacional de Unidades (SI). Los primeros son potencias con base 2, mientras que los prefijos del SI son potencias con base 10. Los valores se listan a continuación: 15

Prefijos en el uso convencional de la informática Nombre Símbolo Potencias binarias y valores decimales Nombre Valores en el SI Diferencia unidad 2 0 = 1 un(o) 10 0 = 1 0 % kilo K 2 10 = 1 024 mil 10 3 = 1 000 2 % mega M 2 20 = 1 048 576 millón 10 6 = 1 000 000 5 % giga G 2 30 = 1 073 741 824 millardo 10 9 = 1 000 000 000 7 % tera T 2 40 = 1 099 511 627 776 billón 10 12 = 1 000 000 000 000 10 % Estos son los mismos símbolos que los prefijos del SI. El uso convencional sembró confusión: 1024 no es 1000. Existe también confusión respecto de los símbolos de las unidades de medición de la información, ya que no son parte del SI. La práctica recomendada es bit para el bit y b para el byte u octeto.en la práctica, es común encontrar B por "byte" u octeto y b por "bit", lo cual es inaceptable en el SI porque B es el símbolo del belio. Norma CEI En 1999 el comité técnico 25 (cantidades y unidades) de la Comisión Electrotécnica Internacional (CEI) publicó la Enmienda 2 de la norma CEI 60027-2. Esta norma, publicada originalmente en 1998, introduce los prefijos kibi, mebi, gibi, tebi nombres formados con la primera sílaba de cada prefijo del SI y el sufijo bi por "binario". La norma también estipula que los prefijos SI siempre tendrán los valores de potencias de 10 y nunca deberán ser usados como potencias de 2. Prefijos CEI Nombre Símbolo Factor kibi Ki 2 10 = 1 024 mebi Mi 2 20 = 1 048 576 gibi Gi 2 30 = 1 073 741 824 tebi Ti 2 40 = 1 099 511 627 776 Esta convención de nombres todavía no ha ganado amplia difusión 1.5. El álgebra de boole George Boole en 1854 publicó Las leyes del pensamiento sobre las cuales son basadas las teorías matemáticas de Lógica y Probabilidad. Boole aproximó la lógica en una nueva dirección reduciéndola a un álgebra simple, incorporando 16

lógica en las matemáticas. Agudizó la analogía entre los símbolos algebraicos y aquellos que representan formas lógicas. Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores: AND (y), OR (o) y NOT (no). Comenzaba el álgebra de la lógica llamada Álgebra Booleana la cual ahora encuentra aplicación en la construcción de computadores, circuitos eléctricos, etc. A mediados del siglo XX el álgebra Booleana resultó de una gran importancia práctica, importancia que se ha ido incrementando hasta nuestros días, en el manejo de información digital (por eso hablamos de Lógica Digital). Gracias a ella, Shannon (1930) pudo formular su teoría de la codificación y John Von Neumann pudo enunciar el modelo de arquitectura que define la estructura interna de los ordenadores desde la primera generación. Todas las variables y constantes del Álgebra booleana, admiten sólo uno de dos valores en sus entradas y salidas: Sí/No, 0/1 o Verdadero/Falso. Estos valores bivalentes y opuestos pueden ser representados por números binarios de un dígito (bits), por lo cual el Álgebra booleana se puede entender cómo el Álgebra del Sistema Binario. Al igual que en álgebra tradicional, también se trabaja con letras del alfabeto para denominar variables y formar ecuaciones para obtener el resultado de ciertas operaciones mediante una ecuación o expresión booleana. Evidentemente los resultados de las correspondientes operaciones también serán binarios. Todas las operaciones (representadas por símbolos determinados) pueden ser materializadas mediante elementos físicos de diferentes tipos (mecánicos, eléctricos, neumáticos o electrónicos) que admiten entradas binarias o lógicas y que devuelven una respuesta Los dispositivos con los cuales se implementan las funciones lógicas son llamados puertas (o compuertas) y, habitualmente, son dispositivos electrónicos basados en transistores. Estos dispositivos, y otros que veremos a lo largo de esta unidad, son los que permiten el diseño, y la ulterior implementación, de los circuitos de cualquier ordenador moderno, así como de muchos de los elementos físicos que permiten la existencia de las telecomunicaciones modernas, el control de máquinas, etcétera. El trabajo de Boole llegó a ser un paso fundamental en la revolución de los computadores, cuando Claude Shannon en 1938, demostró como las operaciones booleanas elementales, se podían representar mediante circuitos conmutadores eléctricos, y como la combinación de estos podía representar operaciones aritméticas y lógicas complejas. Shannon demostró así mismo que el álgebra de Boole se podía utilizar para simplificar circuitos conmutadores. En electricidad y electrónica, las leyes del álgebra de Boole y de la lógica binaria, pueden estudiarse mediante circuitos de conmutación. Un circuito de conmutación estará compuesto por una serie de contactos que representarán las variables lógicas de entrada y una o varias cargas que representarán las variables lógicas o funciones de salida. Los contactos pueden ser normalmente abiertos (NA) o normalmente cerrados (NC). Los primeros permanecerán abiertos mientras no se actúe sobre ellos (por ejemplo al pulsar sobre 17

interruptor, saturar un transistor, etc.). Los contactos NC funcionarán justamente al contrario. Esto significa que si se actúa sobre un contacto NA se cerrará y si se hace sobre uno NC se abrirá. Se deberán de tener en cuenta los siguientes convenios (ver Figura 1): Un contacto NA representa una variable lógica. Un contacto NC representa una variable lógica negada (A'). Un circuito cerrado se considera un uno lógico (1). Un circuito abierto se considera un cero lógico (0). Si no se actúa sobre un contacto se considera que la variable que representa es 0. Si se actúa sobre un contacto se considera que la variable que representa es 1. Figura 1 Si la carga no se excita la función se considera 0 (por ejemplo una lámpara apagada). Si la carga se excita la función se considera 1 (lámpara encendida). Figura 2 (AND) Figura 3 (OR) De este modo la Figura 2 representa la función lógica Y (AND), esto es, L=AB. De acuerdo con la tabla de verdad de dicha función, la lámpara sólo lucirá (L=1) cuando se actúe en ambos contactos (A=1 y B=1). Del mismo modo la Figura 3 representa la función lógica O (OR), esto es, L=A+B; y de acuerdo con su tabla de verdad, la lámpara lucirá (L=1) cuando se actúe en uno o ambos contactos (A=1 o B=1). 1.5.1 Puertas lógicas y sus tablas de verdad Una puerta lógica, o compuerta lógica, es un dispositivo electrónico que es la expresión física de un operador booleano en la lógica de conmutación. Cada puerta lógica consiste en una red de dispositivos interruptores que cumple as condiciones booleanas para el operador particular. Son esencialmente circuitos de conmutación integrados en un chip. Puerta AND Tabla de verdad puerta AND Entrada A Entrada B Salida AB 0 0 0 0 1 0 1 0 0 18

1 1 1 AND, el resultado siempre dará 0 a menos que ambas variables valgan 1. (Equivale a la multiplicación) Puerta OR Tabla de verdad puerta OR Entrada A Entrada B Salida A + B 0 0 0 0 1 1 1 0 1 1 1 1 OR, el resultado arrojado será siempre 1 si al menos una de las variables tiene por valor 1. Puerta OR-exclusiva (XOR) Tabla de verdad puerta XOR Entrada A Entrada B Salida A B 0 0 0 0 1 1 1 0 1 1 1 0 19

La puerta lógica O-exclusiva, más conocida por su nombre en inglés XOR, realiza la función booleana A'B+AB'. Su símbolo es el más (+) inscrito en un círculo. En la figura de la derecha pueden observarse sus símbolos en electrónica. La ecuación característica que describe el comportamiento de la puerta XOR es: Ejemplo Aunque no es pretensión de esta unidad de trabajo la de profundizar más en contenidos sobre electrónica digital es interesante, a modo de ejemplo, analizar el funcionamiento de un circuito combinacional aritmético conocido como semisumador 20