CODIFICACIÓN DE LA INFORMACIÓN

Tamaño: px
Comenzar la demostración a partir de la página:

Download "CODIFICACIÓN DE LA INFORMACIÓN"

Transcripción

1 5 CODIFICACIÓN DE LA INFORMACIÓN 5.1. Concepto de código Para que un ordenador pueda manejar determinada información hay que codificarla en binario, es decir, encontrar una aplicación al menos inyectiva (pero normalmente biyectiva): f: A B n entre el conjunto A de objetos a codificar y el conjunto B n = B B... B (n veces), siendo B={0,1}. Esto permite codificar los objetos de A mediante números de n bits: el objeto a se representa en el ordenador por el número binario f(a) y como la aplicación es inyectiva a objetos distintos le corresponden codificaciones distintas. Como la unidad realmente empleada es el byte, el número n casi siempre es múltiplo de 8. Hay que notar que la memoria del ordenador es finita, por tanto lo primero que se debe hacer normalmente es hacer finito el número de objetos de A. En los apartados sucesivos vamos a ver como se pueden codificar diverso tipo de objetos Codificación de los números enteros Vamos a empezar por los números enteros, el conjunto Z de los números enteros es infinito, luego no se puede representar, por ello lo primero que se debe realizar es seleccionar un subconjunto de Z suficientemente grande para que contenga todos los números que vayamos a necesitar en el problema que estemos tratando. Si utilizamos un byte podremos representar 2 8 = 256 números, si utilizamos 2 bytes, 2 16 = 65536, con 4 bytes, 2 32 = , etc. 82

2 TEMA 5 Codificación de la información La finitud del rango empleado hace que los resultados de las operaciones no siempre queden dentro del rango (sumando de uno en uno alguna vez tenemos que salirnos del rango), en esos casos el procesador debe avisar al programador de que el resultado es incorrecto, para que pueda tomar las medidas oportunas. Eso fue explicado en el tema dedicado al procesador y no insistiremos sobre ello aquí. Si el problema no necesita emplear números negativos la codificación más elemental es escribir directamente el número en base 2, es lo que se llaman números sin signo o binario puro, por ejemplo la codificación de 1234 con 16 bits sin signo sería Si necesitamos emplear números negativos hay diversas representaciones posibles, la más sencilla es reservar un bit para el signo y el resto para el valor absoluto del número, es lo que se llama número con signo y magnitud. El signo se suele poner en el bit más significativo y se suele emplear 0 para números positivos y 1 para negativos. Según eso la codificación de 1234 con 16 bits con signo y magnitud sería , y la de sería , nótese que este número interpretado como número sin signo sería 34002, por eso hay que distinguir muy bien un número de su codificación, hay objetos de tipo distinto que se codifican igual. La codificación de números enteros por signo y magnitud presenta diversos inconvenientes: el primero es que el 0 tiene 2 representaciones, uno como +0 y otro como -0 y, el segundo, es la dificultad para realizar las operaciones con números negativos, especialmente sumas y restas. Como los números se almacenan en un ordenador para operar con ellos, no es muy utilizado. Otra posible forma de codificar los números con signo es la notación en complemento a 1. En este caso los positivos se representan en binario puro pero con un bit menos y para los negativos se hace el complemento a 1 de todas las cifras del valor absoluto; como los positivos emplean un bit de menos, el bit superior de todos los positivos es 0 y el de todos los negativos es 1. En esta notación la representación de 1234 con 16 bits es y la de es , complemento a 1 del anterior. Esta notación presenta también algunos inconvenientes: el cero sigue teniendo dos representaciones y y las operaciones de suma y resta son más sencillas que en el caso anterior, pero necesitan también ser especiales, no valen las de enteros sin signo. Finalmente, el método más empleado para codificar enteros con signo es el de complemento a 2, que codifica los positivos en binario puro y los negativos, como el positivo que se obtiene al sumarles 2 n siendo n el número de bits que se emplea en la representación, esto es equivalente a sumar 1 al complemento a 1 del número. Por ejemplo 1234 con 16 bits es como siempre , y es , la suma de ambos (considerados como números en binario puro) es , pero como estamos haciendo los cálculos con 16 bits el bit del principio se debe suprimir y queda es decir 0. Esta es la mayor ventaja de la notación en complemento a 2, permite emplear la misma operación de sumar que para números sin signo. Con esta notación el cero ya tiene representación única es sólo Los positivos empiezan por 0 y los negativos por 1, el mayor número representable con n bits es 2 n-1-1 y el menor es -2 n-1. Para sumar y restar se puede emplear la misma operación que para los números sin signo, pero la multiplicación y división necesitan ser especiales. 83

3 Apuntes de Informática 5.3. Codificación de los números reales Pasemos ahora a los números reales R, también son infinitos, incluso los reales entre 0 y 1 son infinitos, más aún, un número como π, como tiene infinitos decimales que no se repiten periódicamente (no es racional), es imposible codificarlo, sin embargo para aplicaciones prácticas puede ser suficiente con o 355/113, dependiendo de la precisión necesaria en el resultado final. La segunda de las representaciones es fácil de hacer, se aproxima cada número real por un racional y se escriben su numerador y denominador como una pareja de enteros, que ya sabemos representar, este enfoque tiene un pequeño inconveniente, al operar con racionales el numerador y el denominador crecen excesivamente, pudiendo desbordar fácilmente el rango con el que codifiquemos los enteros, necesitamos pues otra representación. La primera representación de π si puede no obstante emplearse, pero como siempre en base 2, es decir se pone un número de n bits de los cuales los r primeros son la parte entera y los s últimos la parte decimal (en base 2). Para sumar y restar no existe el mayor problema, las operaciones son idénticas a las realizadas con enteros; para la multiplicación y la división las operaciones se realizan con enteros, cuidando de colocar la coma al final en el sitio oportuno (exactamente igual que lo que se hace cuando se opera en decimal). Esta notación recibe el nombre de representación en coma fija y el mayor inconveniente que presenta es que se puede desbordar fácilmente el rango asignado a la parte entera, por ello lo que más se utiliza es la notación en coma flotante que se explica a continuación. Para poder manejar números grandes se emplea la notación científica que consiste en poner el número como A 10 B con 1 A < 10 y B Z, la parte A recibe el nombre de mantisa y la parte B se llama exponente. El ordenador emplea este mismo tipo de representación, pero cambiando 10 por 2 y tomando un número fijo de bits para codificar la mantisa y el exponente, por ejemplo el número en binario es (nótese que por el mero hecho de pasar el número a binario estamos perdiendo precisión, un número que se puede representar exactamente en decimal puede requerir infinitos decimales para representarse en binario). Es decir, en notación científica y en binario sería Por tanto, si decidimos codificar la mantisa con 24 bits y el exponente con 8, podríamos representarlo por la pareja de enteros y Para el problema de los signos hay diversas soluciones posibles, para el signo del exponente se suele añadir una constante llamada exceso de modo que se eviten los números negativos, si por ejemplo esa constante fuera 127, el exponente quedaría codificado en el caso anterior como 128 = El signo de la mantisa se puede colocar en un bit, poniéndolo a 0 para los positivos y a 1 para los negativos. Además como el bit más significativo de la mantisa es siempre 1 (salvo para el 0, que se representa habitualmente poniendo como exponente con exceso 0) se suprime. Con eso el número anterior quedaría codificado si ponemos primero el signo, después el exponente y finalmente la mantisa (suprimiendo el bit más significativo) como: Lo que hemos explicado hasta ahora es como codifican los procesadores de la familia 80x86 de Intel los números en simple precisión, lo que equivale aproximadamente a 7 decimales y llega hasta 10 ±38. 84

4 TEMA 5 Codificación de la información Si se necesita más precisión existe un formato de doble precisión, que es como el anterior, pero con 53 bits para la mantisa y 11 bits para el exponente, eso equivale aproximadamente a casi 16 decimales y llega hasta 10 ±308. Existe además un formato llamado temporal que emplea 64 bits para la mantisa y 15 bits para el exponente obteniendo aproximadamente 19 decimales y llega hasta 10 ±4932, en éste último caso no se suprime el bit más significativo de la mantisa. La representación del número anterior como doble y temporal queda pues: Todo lo anterior se resume en la siguiente tabla: Tipo Bits Bits Total Decimales pot. de 10 Exceso Mantisa exponente bits aprox. aprox. Simple Doble Temporal Para determinadas aplicaciones es imprescindible no cometer errores de redondeo en la representación de los números, y al pasar de decimal a binario se puede perder precisión. Por ejemplo, el número escrito en binario es , al tener que representarlo en base 2 nos vemos obligados a perder precisión. La solución es representarlo en notación en coma fija y en decimal. Dado que los dígitos del 0 al 9 se pueden representar con un número de 4 bits, se emplean cuatro bits para representarlos, esta notación recibe el nombre de BCD, es decir, Decimal Codificado en Binario. Por ejemplo, el número escrito en notación BCD empleando 4 dígitos BCD (es decir 2 bytes) para la parte entera y dos para la parte decimal quedaría: BCD Códigos alfanuméricos Además de tratar números la aplicación más común de los ordenadores es tratar información de tipo alfanumérico, es decir textos. Un texto puede contener números, pero que no se utilizan como tales. Por ejemplo, una dirección contiene el código postal, pero los códigos postales no se suman, en otras palabras podría estar formado por letras en lugar de números. Las letras del alfabeto son 26, si contamos las mayúsculas salen 52, si añadimos los signos representativos de los números (del 0 al 9) pasamos a 62 y añadiendo signos para la coma, punto y coma, etc. se pasa de 64, por tanto debemos emplear al menos 7 bits a emplear para codificar las letras del alfabeto. Es decir, necesitamos una aplicación inyectiva: f: L B 7 siendo L el conjunto de las letras antes mencionadas, es decir: L = { a, b,..., z, A,..., Z, 0,..., 9,,, ;,... } 85

5 Apuntes de Informática Si cada ordenador empleara una aplicación f distinta sería muy difícil compartir la información entre ellos, por ello es necesaria la utilización de códigos estándar. El primero de esos códigos es el EBCDIC, actualmente en desuso. El que utilizan la mayoría de los ordenadores actuales es el denominado ASCII (American Standard Code for Information Interchange), como su propio nombre indica, está pensado para los angloparlantes, con lo cual no contiene la letra 'ñ', acentos, etc., por ello, y aprovechando que los ordenadores trabajan con bloques de 8 bits, se emplean códigos de 8 bits que sí contienen ya las letras exclusivas de otros idiomas como el español. Por desgracia esas extensiones del código ASCII no son estándar, es decir, el código por ejemplo de la letra 'ñ' no es siempre el mismo, con lo cual, al pasar un texto que la contenga de un ordenador a otro puede salir en su lugar cualquier otro símbolo. Para evitar eso existe un estándar posterior al código ASCII, llamado ANSI (siglas de American National Standar Institute, creadores del mismo), que sí es de 8 bits y define dónde debe quedar la letra 'ñ', ese es el código que se empleaba por ejemplo el entorno Windows 3.x de Microsoft, pero dado que no es de uso universal (el propio MSDOS que se carga antes que el Windows emplea otro distinto) no soluciona el problema. Actualmente las versiones modernas de Windows utilizan también un código de 16 bits (lo que da para letras) llamado UNICODE, los 256 primeros caracteres del UNICODE coinciden con los del ANSI y en los superiores al 256 contiene caracteres más exóticos, como los del chino, etc Codificación de sonidos en el ordenador El sonido es una onda, por tanto lo podemos representar matemáticamente por una aplicación f: [a,b] R siendo [a,b] el intervalo del tiempo en el que estemos considerando el sonido y f(t) la amplitud de la onda correspondiente en el instante t. Para introducir una función en el ordenador es suficiente dar una ecuación que permita calcular la misma, pero esto, en el caso del sonido no es posible debido al espacio limitado de memoria. Por tanto hay que conformarse con una representación aproximada, pero lo suficientemente próxima al sonido real que no pueda distinguirla el oído humano. Lo que se hace es muestrear el sonido, es decir, dividir el eje del tiempo en partes iguales y observar el valor de f(t) sólo para esos valores. De esta manera reducimos el sonido a una sucesión de números reales {f(t 0 ), f(t 0 +h), f(t 0 +2h),...}, pero como los números reales no podemos representarlos de modo exacto en el ordenador, deberemos reducirlos primero a enteros. Si la amplitud máxima de la onda es, por ejemplo, 1, podemos multiplicar por 127 y redondear a entero, trasformando la sucesión en una de enteros entre -127 y 127, que se pueden representar con 1 byte para cada entero; si se quiere más precisión se puede multiplicar por y representarlo como 2 bytes. 86

6 TEMA 5 Codificación de la información El oído humano es capaz de escuchar las frecuencias que hay entre 20 Hz y Hz. Según el teorema de Nyquist para poder recuperar las frecuencias hasta Hz hace falta muestrear con el doble de frecuencia, es decir Hz. El ejemplo más conocido de música en forma digital son los discos compactos, más conocidos como CD, en ellos se toma como frecuencia de muestreo Hz. Las muestras son de 16 bits y se tienen dos canales (estéreo), según lo cual hacen falta = bytes, aproximadamente 172 Kb, para representar un segundo de sonido. Eso es algo más de 10 Mb por minuto y más de 600 Mb en una hora que puede contener un CD de audio. Naturalmente si se precisa menos calidad se puede reducir la frecuencia de muestreo, el número de bits o el número de canales. Por ejemplo, la voz humana queda perfectamente representada con una frecuencia de muestreo de Hz, ya que las frecuencias predominantes de la misma no pasan de 4000 Hz. El principal inconveniente de esta representación del sonido es que ocupa mucho espacio. Un minuto de sonido en calidad CD ocupa algo más de 10 Mb. Por ello, si lo que se quiere representar es exclusivamente música, se puede recurrir a métodos que requieren menos memoria. La música se puede representar mediante una partitura, en ella se pueden encontrar una serie de notas, cada una con una duración y tocadas en diversos momentos con diversos instrumentos. Esto se puede reducir fácilmente a forma digital, es suficiente darle un número a cada nota, un número a cada instrumento y representar de alguna forma en que instante del tiempo tiene lugar cada una. La forma más fácil de hacer eso es dividir el eje del tiempo en partes iguales (en este caso de 1/100 segundos o algo similar) y con un número de, por ejemplo, 16 bits indicar el evento que ocurre en ese instante, es decir: nota que suena, instrumento, etc. Para permitir que varios instrumentos puedan tocar diversas notas en un mismo instante se deben tener varias pistas, cada una con información de tipo similar. Con este sistema 1 segundo de sonido con cuatro pistas (correspondientes cada una a un instrumento) ocupa = 800 bytes, una cantidad ridícula comparada con lo que ocupa un segundo de sonido digital con calidad CD. Para recuperar el sonido original, a partir de la representación anterior, se necesitaría tener digitalizadas previamente todas las notas de todos los instrumentos que se vayan a emplear. Normalmente se suele poner sólo una nota por instrumento y obtener el resto variando la frecuencia de reproducción de dicha nota: por ejemplo, si se tiene la nota DO de una octava muestreada a 44.1 KHz y se quiere obtener la de la octava superior, que tiene el doble de frecuencia, es suficiente reproducir una muestra sí y otra no de la original a 44.1 KHz para obtener el sonido deseado, y si la que se necesita es la de una inferior, se interpola un número entre cada dos muestras de la original. Para otras notas distintas el proceso es similar, pero algo más complicado. Para hacer que suenen los diversos instrumentos es suficiente sumar las ondas correspondientes antes de reproducirlas Codificación de imágenes en el ordenador Una imagen se puede considerar una aplicación: f: [a,b] [c,d] C 87

7 Apuntes de Informática siendo f(x,y) el color del punto de coordenadas (x,y) de la imagen. Como en el caso del sonido nos vemos obligados a cambiar [a,b] y [c,d] por conjuntos finitos de puntos para poder representar la imagen en el ordenador. Supondremos, en lo que sigue, que [a,b] lo dividimos en 640 partes y [c,d] en 480. De nuevo, como en el caso del sonido, si queremos más calidad, tenemos que aumentar dichos números. Con ello también aumentaría el espacio necesario para almacenar la imagen, pero en este caso, de forma cuadrática, es decir, si duplicamos los puntos en cada eje, la imagen ocupa cuatro veces más. Cada uno de los puntos (x,y) en los que almacenamos la imagen recibe el nombre de pixel. Nos queda por averiguar como representar el color. Hay diversas posibilidades, pero la más empleada es el sistema RGB, que consiste en poner la intensidad necesaria de Rojo (Red), Verde (Green) y Azul (Blue) que mezclados producen el color deseado: Amarillo: es la mezcla a partes iguales de Rojo y Verde Naranja: se obtiene mezclando a partes iguales Rojo y Amarillo, es decir, mezclando el doble de Rojo que de Verde y nada de Azul Blanco: se obtiene por la mezcla a partes iguales de los tres colores. Si para cada color empleamos un número de 8 bits, tendremos en total 24 bits por pixel lo que proporciona 2 24 = colores. Si volvemos a la imagen de partida de pixels necesitaremos para codificarla = bytes, es decir 900 Kb, espacio que equivale aproximadamente al de 5 segundos de sonido con calidad CD. Para representar la imagen se pone primero los colores de los pixels de la primera línea, de izquierda a derecha, después los de la segunda y así hasta la última. Dado el espacio que ocupan las imágenes, es necesario, como en el caso del sonido, encontrar alguna manera de reducirlo. Lo más elemental es reducir el número de pixels, también se puede reducir el número de bits por color, por ejemplo a 5 (es decir a 15 bits por pixel), pero con dichos métodos se pierde calidad en la imagen, veamos otra forma mejor. Supongamos que la imagen que queremos codificar es un dibujo hecho por nosotros. Como es natural, no tenemos pinturas, sino tan sólo 10 ó 15, de modo que cada uno de esos pixel será uno de los colores de las pinturas que tenemos. En lugar de representar cada color por tres bytes correspondientes a sus componentes roja, verde y azul, es mejor numerar las pinturas: la 0 es negra, la 1 azul, la 2 blanca, etc. y representar cada pixel por el color de la pintura con la que lo hemos dibujado. En ese caso si partimos de que tenemos 16 pinturas, podemos codificar cada una con 4 bits y la imagen ocupará = bits, es decir 150 Kb, la sexta parte que si la hubiésemos codificado directamente con los colores de los pixels. Además tendremos que almacenar una tabla, llamada paleta, con la equivalencia de cada color de los nuestros en el sistema RGB, por ejemplo el negro es (0,0,0), el azul es (0,0,255), etc. Pero esta tabla ocupa tan sólo 16 3 = 48 bytes, cantidad muy inferior a lo ocupado por la imagen. 88

8 TEMA 5 Codificación de la información La imagen, como en el caso anterior, se codifica de izquierda a derecha y de arriba a abajo. Previamente a la imagen hay que poner la paleta y indicar cuantos colores tiene. En el ejemplo anterior hemos supuesto que la imagen estaba hecha por nosotros y tenía un número pequeño de colores, qué pasa si partimos de una imagen real? En ese caso no se puede conseguir codificar con 16 colores, pero en lugar de necesitar , puede que sólo tenga 1000 o 2000 distintos y se podría codificar con una paleta de, por ejemplo, 12 bits, lo que también supone un ahorro. En la práctica no se emplean paletas de más de 8 bits. Esto significa que deberíamos, previamente, reducir a un máximo de 256 colores, cambiando algunos, por otros parecidos que si figuren en la paleta. Con esta reducción se distorsiona algo la imagen, pero en la práctica no suele diferir mucho de la original, y ocupa la tercera parte que ésta Codificación de videos en el ordenador Un vídeo se compone de una secuencia de imágenes y de sonido. Para que el cerebro no perciba el salto entre las imágenes es suficiente con emplear 15 fotogramas por segundo; si consideramos fotogramas de codificados con 24 bits, un segundo de vídeo consume más de 13 Mb, al que, además, hemos de añadir el sonido, con lo que se debe aumentar algo esa cantidad. Eso presenta dos problemas: Cantidad elevada de espacio de almacenamiento Y la velocidad de transferencia por ello los videos se deben forzosamente almacenar comprimidos. Hay básicamente dos tipos de compresión: Compresión sin pérdida de calidad: Permite recuperar el original tal cual era y, suele conseguir, (dependiendo del tipo de datos), reducir el tamaño de almacenamiento a la mitad, que aún no soluciona el primer problema. Con pérdida de calidad En este caso, al descomprimir los datos, obtenemos algo distinto al original. Dependiendo del grado de compresión que consigamos, el parecido con el original será mayor o menor. Normalmente se puede lograr un compromiso entre ambos factores (pérdida de calidad y grado de comprensión) de modo que se pueda almacenar en un CDROM (es decir en 650 Mb) una hora de vídeo con una calidad aceptable Métodos de compresión de la información Como hemos visto en el apartado anterior se precisa tener métodos para que la información ocupe el mínimo espacio posible. En este apartado nos vamos a ocupar exclusivamente de métodos que no pierdan calidad. 89

9 Apuntes de Informática Volvamos a la imagen que pintamos con una paleta 16 colores en el apartado 5.6, está claro que debe haber amplias zonas de la imagen que tienen el mismo color, ya que sólo tenemos 16 colores y pixel. Supongamos que en la primera línea los 10 primeros pixels son del mismo color, por ejemplo azul, entonces la codificación de la imagen empezará así: 0001, 0001, 0001, 0001, 0001, 0001, 0001, 0001, 0001, 0001,... es fácil reducir esos bits a algo más comprimido, es suficiente con decir: repetir 10 veces el valor 0001; cómo se puede codificar eso?, pues por ejemplo: , el primer número indica el número de veces que se ha de repetir un color (con 8 bits) y el segundo el color que se repite. Para codificar los colores que no se repiten se puede emplear, por ejemplo, un número de 8 bits con el superior puesto a 1 y, el resto, la cantidad de colores que no se repiten (o que al codificarlos como repetidos perderíamos espacio), por ejemplo si la imagen anterior siguiera: lo podríamos codificar como: 0010, 0011, 0011, 0010, 0001, 0001, 0001, 0001, 0001, 0001, ,0010,0011,0011,0010, ,0001,... este sistema de compresión se llama RLE siglas que corresponden a Run Length Encoding. El sistema anterior funciona muy bien en una imagen con 16 colores y pixel, pero para otro tipo de datos, no es fácil que aparezcan secuencias largas repetidas, con lo que el método anterior puede no comprimir excesivamente. Supongamos ahora que lo que debemos comprimir es una lista de nombres de personas,. En este caso, no es normal que en un nombre, o en un apellido, aparezca una misma letra seguida, por tanto el esquema anterior es impracticable. Sin embargo en el documento aparecerá varias veces la palabra GONZÁLEZ, en ese caso se puede reemplazar la segunda aparición de dicha palabra por un texto que diga: colocar aquí la secuencia de ocho letras que esta 45 letras antes, es decir: (8,45) 10 = ( , ) 2 es posible que con sólo 8 bits tengamos poco margen para que aparezcan cosas repetidas y tengamos que reemplazar el por , que tiene 16 bits, pero en todo caso reducimos un texto de 8 bytes a tan sólo 3. En contrapartida, hay que añadir información extra, como en el ejemplo anterior, para saber cuando los datos no son repetidos. Este sistema se llama LZW, iniciales de Lempel, Ziv y Welsh que son sus autores, y es el que emplean normalmente los programas compresores, como el PKZIP. Normalmente reduce los ficheros al 50%, aunque con algunos tipos de datos logra incluso ratios mejores de compresión. Finalmente, vamos a explicar el algoritmo de Huffman, es más complicado que los anteriores, pero tiene una aplicación más general. 90

10 TEMA 5 Codificación de la información Supongamos ahora que lo que tenemos que comprimir es un texto cualquiera escrito es español, en él aparecerán palabras repetidas, pero no las suficientes como para que el método LZW pueda reducirlo apreciablemente. La idea es que, todas las letras no aparecen repetidas el mismo número de veces, la 'a' se repite más que la 'z' por poner un ejemplo, por ello, no es lógico emplear el mismo número de bits para codificar la 'a' que la 'z'. Se debería emplear para la a un código más corto y que para la z. Veamos como se hace en la práctica. Por simplificar vamos a suponer que el texto sólo contiene las cinco vocales y que la frecuencia de aparición de cada una es: A E I O U el método consiste en ir agrupando por parejas los valores mínimos y sustituirlos por su suma. En nuestro caso, son 12 y 8 y la suma es 20, por tanto la nueva serie de valores es: 35, 25, 20, 20. Ahora se agrupan los dos 20 para producir 40 y los valores quedan: 35, 25, 40. Los dos menores son en este caso 35 y 25, cuya suma es 60 y finalmente agrupamos el 60 y el 40 y obtenemos el total 100. Si vamos siguiendo el método anterior de modo gráfico queda: A E I O U ahora para se pone 0 en cada rama de la izquierda y 1 en la de la derecha (se podría hacer también a la inversa) y, para obtener el código de cada letra, se sigue desde abajo arriba las líneas, en nuestro caso los códigos quedan: A = 00, E = 01, I = 10, O = 110, U = 111 Si el texto a comprimir tiene 35 letras A, 25 letras E, etc. el tamaño del mismo empleando este código sería de: = 220 bits Si por el contrario empleáramos longitudes constantes para las letras deberían ser todas de 3 bits con lo cual el resultado sería: = 300. En este ejemplo, debido a su sencillez, la ganancia no es muy notable, ya que los códigos de Huffman obtenidos son unos de 2 y otros de 3 bits, mientras que en la codificación normal serían todos de 3 bits. Nótese que las letras a las que les toca un código de 2 bits son las de uso más frecuente. 91

11 Apuntes de Informática 5.9. Detección y corrección de errores Aunque la transmisión de la información digital es más fiable que la analógica, existe siempre una probabilidad no nula de que uno o varios bits sufran alteración en este proceso. Es decir, que se produzca un error. Vamos primero a ver un par de métodos que permiten la detección de errores y, después veremos, que también pueden corregirse. Todos los métodos se basan en añadir información extra al código que permita detectar o corregir errores. El método más sencillo de detectar errores en un bit es la paridad. Consiste en añadir un bit extra, en el que se tiene en cuenta si el número de bits a 1 del código es par o impar. Hay dos posibilidades: a) la paridad par que añade un bit 1 si hay un número impar de unos en el código y 0 si hay un número par. Ejemplo: dato=0110, paridad=0. b) la paridad impar que añade un bit 0 si hay un número impar de unos en el código y 1 si hay un número par. Ejemplo: dato=0100, paridad=0. Si se comete un error en uno de los bits del código el número de bits a 1 pasa de par a impar o viceversa, por tanto, la paridad calculada no puede coincidir con la almacenada y el método detecta los errores en un bit. Si se comete un error en dos bits, la paridad calculada y la almacenada coinciden, con lo que no nos enteramos del error. En los ordenadores compatibles PC la memoria se pone en grupos de 9 bits, 8 se emplean para los datos y el noveno para la paridad. Cuando se escribe un dato en memoria se calcula la paridad, y se almacena en el bit noveno; al leer se comprueba, si no coincide se genera un error de paridad y se detiene el sistema. Dado que sólo detecta los errores en 1 bit y los errores no suelen ocurrir en un único bit, el método no es de mucha aplicación, salvo en casos como la memoria que se supone que es fiable al 100%. En el caso de los discos flexibles o disquetes se emplea un sistema distinto, es lo que se conoce con el nombre de CRC o Cyclic Redundancy Check. Cada sector de datos contiene normalmente 512 bytes de datos y 2 bytes de CRC. El método de cálculo es complicado por lo que no lo detallaremos aquí, pero esta pensado para que detecte los errores en varios bit consecutivos. Cuando ocurre un error de CRC, leyendo un sector de disco, el sistema responde con un mensaje de error. Hay ocasiones en que la detección de que los datos tienen errores no es suficiente, se necesita algún procedimiento para corregir los errores. El código de Hamming sirve para corregir errores en k bits y, es una aplicación inyectiva H k : B n B n+r 92

12 TEMA 5 Codificación de la información que permite codificar datos de n bits en n+r bits, de modo que a partir de los n+r se pueda recuperar el código original de n bits incluso cuando el código de n+r tenga k bits erróneos. En el caso de los códigos de Hamming los r bits que se añaden son intercalados entre los originales y se obtienen haciendo determinadas sumas de paridad entre los bits de datos. El valor de r depende tanto de n como de k. Dados dos números binarios (con igual cantidad de bits) se define su distancia de Hamming como el número mínimo de bits que hay que variar en el primero para convertirlo en el segundo (o lo que es igual el número de bits que son distintos en ambos), es obvio que cumple las propiedades de distancia, es decir: a) d(x,y) 0 y d(x,y) = 0 sí y sólo sí x = y. b) d(x,y) = d(y,x). c) d(x,z) d(x,y)+d(y,z) (desigualdad triangular). Para obtener la aplicación H k es suficiente con encontrar 2 n elementos, x i B n+r (i = 0,...,2 n -1) tales que los conjuntos X i = {y B n+r : d(x i,y) k} sean disjuntos, ya que entonces la aplicación H k : B n B n+r definida por H k (i) = x i cumple lo que nosotros queremos: si en el elemento i, que nosotros codificamos como x i, se produce un error en a lo sumo k bits, vamos a parar a un elemento de X i. Como los X i son disjuntos, eso nos permite recuperar el x i (si j i la distancia a x j es mayor que k y partimos de que el error es a lo sumo de k bits). A partir de x i se recupera después i. Los elementos x i se pueden obtener eligiendo elementos que cumplan d(x i,x j ) = 2*k+1, ya que entonces los conjuntos X i son disjuntos: si d(y,x i ) k y d(y,x j ) k, por la desigualdad triangular d(x i,x j ) d(x i,y)+d(y,x j ) k + k = 2*k en contra de la elección de los x i. El procedimiento para obtener la aplicación H k es, por tanto, el siguiente: sea x 0 = , x 1 será el mínimo elemento que dista 2*k+1 de x 0, es decir x 1 = , donde se ponen 2*k+1 unos al final; para x 2 se toma el mínimo elemento que dista 2*k+1 de x 0 y x 1, y así sucesivamente. En la práctica se observa que es suficiente hacer esto con los valores de i que son potencias de 2, el resto se calcula descomponiéndolos en una serie de los anteriores (3=2+1, 7= 4+2+1, etc.) y se suman sus códigos correspondientes en binario (pero sin contar los acarreos). El valor de r se obtiene de mirar el máximo número de bits que requiere el mayor valor a codificar. Siguiendo el procedimiento anterior se puede obtener la siguiente tabla en hexadecimal (en binario sería excesivamente grande): i k = 1 k = 2 k = 3 k = F 7F 1FF 2 19 E E0F 4 2A C B 54A 2AAA 64A B34 A94AA 93

13 Apuntes de Informática Según la tabla anterior el código que le corresponde por ejemplo al 5 (4+1) para corregir errores en 2 bits es F 16 = = = 33A 16. Para el resto de números hasta 8, el lector puede hacer la operación por el mismo procedimiento y obtener la siguiente tabla para corregir errores en 2 bit: i x i 1F E3 FC A 3C6 3D9 54A Supongamos que se ha producido un error en 2 bits, y el valor obtenido es, por ejemplo, , se tiene entonces: i suma 329 3D5 3CA 13 C F0 EF 67C distancia La fila con título suma contiene las sumas (en binario y sin los acarreos) entre el código de x i y el código dado y la última contiene las distancias que consisten en contar el número de bits 1 que tiene cada término de la suma. Como se puede observar el código correcto es 5, ya que es el que tiene distancia 2. Para el caso k = 1 se puede hacer de otra forma equivalente: se numeran los bits del código resultante empezando por uno (el más bajo) es decir b n+r,..., b 2, b 1. Los bits que se añaden son los que ocupan las potencias de 2, es decir b 1, b 2, b 4,... en lo sucesivo los llamaremos bits de control, se ponen los suficientes bits hasta que se coloquen todos los bits de datos necesarios (respetando las posiciones de los de control). Por ejemplo, si queremos codificar un dato de 8 bits, necesitamos al menos los bits b 1, b 2, b 4 y b 8. Como en los 8 primeros bits hay 4 para datos y 4 para control, y debemos tener 8 para datos, necesitamos hasta b 12. La siguiente potencia de 2 es 16, así que desde de b 9 hasta b 12 no aparecen nuevos bits de control, por lo que tendremos que emplear 12 bits de los cuales 4 (b 1, b 2, b 4 y b 8 ) son de control y el resto de datos. Para averiguar que hay que poner en los bits de control se codifican en binario natural los números del 1 al n+r, en nuestro ejemplo 12, poniendo en las cabeceras los bits de control, que llamaremos ahora C i, como muestra la tabla siguiente: posición C 8 C 4 C 2 C

14 TEMA 5 Codificación de la información para obtener cada C i hay que sumar los bits correspondientes a los bit 1 de su columna, es decir: C 1 = b 1 +b 3 +b 5 +b 7 +b 9 +b 11 C 2 = b 2 +b 3 +b 6 +b 7 +b 10 +b 11 C 4 = b 4 +b 5 +b 6 +b 7 +b 12 C 8 = b 8 +b 9 +b 10 +b 11 +b 12 La suma significa suma sin acarreo como siempre (es decir contar la paridad del número de 1 que haya en los bits correspondientes) y como es natural para generar el valor no se cuenta a sí mismo, es decir para C 1 no se suma b 1,... Para detectar los errores en un bit se hallan los valores de C 1, C 2,..., pero sumando ahora el bit correspondiente. Si no se han producido errores el valor del bit b 2 i es la suma de los restantes que aparecen en Ci, luego al sumarse consigo mismo da cero (sin acarreo 1+1=0 y 0+0=0), luego el valor formado por los C i es 0. Si hubiera un error en un bit, ese bit forma parte de los C i necesarios para obtener ese bit en binario, con lo cual dichos C i aparecerían alterados (es decir a 1), y por la propia construcción el número... C 2 C 1 nos indica el bit erróneo, con modificar ese bit y extraer el dato tenemos el dato corregido. Por ejemplo, supongamos que tenemos que codificar el número 5, que en binario es , , , ,

15 La codificación de 5 10 utilizando código Hamming para detectar errores en un bit es Supongamos que en la misma alteramos un bit para pasar por ejemplo a : C 1 = C 2 = C 3 = C 4 =1 C 4 C 3 C 2 C Que nos indica que el error está en el bit 9. Se deja como ejercicio al lector que codifique el 5 según las tablas generales y que compruebe que el resultado es el mismo. Para concluir este apartado, cabe mencionar que los discos duros suelen emplear un método que no sólo permite detectar, sino también corregir errores en varios bits, que recibe el nombre de ECC (Error Correction Code), se codifica al final de los datos y ocupa 32 bits. También las memorias modernas RAM pueden corregir errores con ECC, en lugar de emplear la paridad que sólo permite detectar errores en un sólo bit Criptografía El vocablo criptografía proviene del griego clásico, y según la Real Academia de la Lengua Española significa: Arte de escribir con clave secreta o de algún modo enigmático. La criptografía se utiliza para proteger información para la cual es posible el acceso ilegal y son ineficaces otros métodos de protección. Esto es aplicable en el caso de las comunicaciones, en las que la información debe circular por algún canal público. La solución es buscar un mecanismo de transformación de los mensajes (texto sencillo) a una forma ininteligible (texto criptografiado), que carezca de sentido para todos aquellos que no sean los destinatarios legales. Hay que darse cuenta que el hecho de codificar el mensaje, ya supone una encriptación del mismo, es necesario que el destinatario conozca el método de codificación empleado para que pueda leer el mensaje. Según esto, la forma más simple de encriptar un mensaje, es codificándolo según un método de uso particular, en lugar de uno de uso público. Es suficiente inventar un código similar al ASCII, pero con códigos distintos para las letras, que conozcan emisor y receptor para 96

16 TEMA 5 Codificación de la información enviarse los mensajes. Este método es muy poco eficaz, ya que con análisis de frecuencia de las letras es muy fácil de descubrir cuál es el código empleado y por tanto descifrar los mensajes. Por ello, es preciso emplear métodos más sofisticados, el emisor debe conocer una función E que le permita encriptar el texto y el receptor debe conocer una función D que le permita desencriptar el texto. En principio se podría pensar que deben ser ambas guardadas celosamente, pero no es necesariamente así. Existen sistemas de clave pública en los que el receptor explica cual es el mecanismo de E, con lo cual cualquier persona puede mandarle mensajes cifrados, que sólo él sabrá descifrar, ya que el algoritmo que realiza la función D no se deduce (al menos fácilmente) del de E y sólo lo conoce el destinatario del mensaje. El sistema más conocido de clave pública es RSA, en él las funciones D y E son en realidad exponenciales modulares, es decir existen dos números d y e tales que D(m) = m d mod p y E(m) = m e mod p, siendo mod p la operación de encontrar el resto al dividir por p y, m el mensaje codificado en binario. El número p es elegido por el receptor, siendo este la clave de la seguridad del código. Para que el receptor pueda decodificar el mensaje debe cumplirse que D(E(m))=m mod p, es decir, que m e d = m mod p. Para que siempre se cumpla esta ecuación el destinatario elige adecuadamente d y e, pero sin la descomposición en factores primos de p, no se puede encontrar el valor de d, aún siendo conocidos p y e. También se cumple la relación inversa E(D(m))= m mod p. Además de la necesidad de encriptar mensajes, existe otra necesidad, la de asegurarse de que un mensaje proviene de quién dice que lo envía. Veamos como se puede lograr eso a partir del método anterior. Supongamos que dos personas A y B quieren mantener correspondencia y que eligen el sistema anterior, denotemos D A, E A las funciones elegidas por la persona A y D B, E B las análogas de B. Cuando A desea enviar el mensaje m a B, lo codifica como m = E B (D A (m)), B para leerlo debe hacer m = E A (D B (m )). Según este método nadie distinto de A puede haber enviado el mensaje a B, ya que A es el único que conoce D A y B puede estar seguro de que el mensaje proviene de A. Por otra parte, como sólo B conoce D B, la única persona que puede decodificar el mensaje es B, quedando así asegurado que el mensaje lo ha enviado A y que sólo es legible para B. Normalmente no se encripta el mensaje entero con D A, sino un resumen del mismo obtenido con una función de hash, el destinatario desencripta el resumen y lo compara con el generado directamente y si coinciden puede suponer que el mensaje no ha sido alterado Codificación física de los datos En este apartado vamos a ocuparnos de como se escriben físicamente los datos en los disquetes, discos duros y CDROM. El motivo de esto es que la codificación física implica una nueva traducción para adaptarse a las posibilidades que presenta el material sobre el que se escribe. 97

17 Apuntes de Informática Empecemos con los disquetes, en un disquete la información se almacena en forma de campo magnético, aprovechando que puede tener 2 orientaciones, lo cual es muy oportuno para representar datos binarios. Ingenuamente se podrían codificar los ceros por el campo magnético con una orientación y los unos con la opuesta, pero ese sistema está condenado al fracaso. Los datos se leen en el disquete con una cabeza que permanece fija mientras el disco gira por debajo de ella, si se produce una variación de un 1 por mil en la velocidad de giro, a partir del bit mil estaremos leyendo donde no corresponde, por tanto no se puede emplear el esquema citado. Por razones prácticas se codifican los bit 0 como una permanencia del campo magnético actual y los bit 1 por un cambio del mismo. Supongamos ahora que codificamos según este nuevo método una serie larga de bits 1, cada bit implica un cambio del campo magnético, lo que permite sincronizar el punto de lectura y liberarnos del problema de las variaciones en la velocidad. Sin embargo, si debemos codificar una serie larga de bits 0, el problema persiste, no podemos saber si hemos leído 1000 o 1001 ceros seguidos; en este caso no tenemos información para sincronizarnos. Según lo anterior hay un método relativamente simple de poder leer los datos correctamente, es suficiente con introducir entre cada par de bits de datos un bit, llamado bit de reloj, puesto siempre a 1, cuya misión es sincronizar la velocidad de lectura y que permite así codificar series de muchos ceros seguidos sin problemas, pero que desperdicia la mitad de la capacidad del disco para las señales de reloj. Este es el método más primitivo de codificación que recibe el nombre de FM (Modulación de Frecuencia). Por ejemplo el dato se codifica Si uno piensa un poco más profundamente sobre el asunto encuentra otro método, inspirado en el anterior, que permite conservar la capacidad intacta del disco, y que contiene a su vez las señales necesarias para no perder la sincronización. El problema era la repetición de ceros seguidos, por tanto la solución es incluir un bit de reloj, como antes, pero que sólo sea 1 entre cada par de bits a 0, en el resto de casos es siempre 0, este método recibe el nombre de MFM (Modulación de Frecuencia Modificado) y es el empleado actualmente en las unidades de disquete de los ordenadores compatibles. Volviendo al ejemplo anterior, ahora quedaría codificado como: , puede que no se note mucho la diferencia con el caso anterior, pero es muy notable, ahora como mínimo hay un cero entre un par de unos consecutivos, y como máximo 3. Si codificáramos a la misma velocidad que en el método anterior, la distancia mínima entre dos cambios del campo magnético sería el doble que en el caso anterior. Dado que se supone que la superficie magnética es de la misma calidad y soporta el mismo número de cambios de campo magnético que en el caso anterior, podemos enviar los datos a la cabeza magnética al doble de velocidad que antes y en consecuencia duplicar la capacidad del disco. Como la mitad de los datos son sólo señales de reloj, no necesarias, el disco queda con la capacidad que tenía originalmente. Para los discos duros el método anterior es insuficiente, pero se puede refinar la idea. El método empleado llamado RLL2.7 consiste en encontrar una codificación (ya no tan sencilla como la MFM) que duplique el tamaño de los datos, pero consiguiendo un mínimo de 2 y un máximo de 7 ceros (de ahí los números del nombre) entre cada par de unos seguidos. Según el razonamiento anterior, se pueden enviar los datos al triple de velocidad, pero sólo estamos 98

18 TEMA 5 Codificación de la información empleando el doble de bits para codificar un dato, por tanto obtenemos un 50% extra de capacidad en el disco. La tabla de la codificación RLL2.7 está a continuación: Dato RLL como puede observarse emplea códigos de longitud variable tanto para la entrada como para la salida, pero siempre duplica el tamaño de los datos de entrada y la traducción es unívoca en los dos sentidos. Existe otro método del mismo tipo pero de características más avanzadas llamado RLL3.9. En el caso de los CDROM el procedimiento es similar al RLL. Hay que tener en cuenta que, en el caso del CDROM, lo que se emplea para codificar no es un campo magnético, sino reflectividad, salvo eso y la tabla de traducción el resto es idéntico. Los 1 se codifican como cambios de reflectividad y los 0 como permanencias y se traduce con una tabla de 8 bits a 14 bits, por lo que el método se llama EFM (Eight to Fourteen Modulation), el principio de dicha tabla es el siguiente: dato EFM en este caso el mínimo número de bits 0 consecutivos entre dos bits 1 es de 2 y el máximo es de 11, además entre cada byte codificado en 14 bits se incluyen 3 bits extra, por lo tanto, la ganancia de capacidad es, en este caso, del 41%, un poco inferior al RLL

19 Apuntes de Informática Ejercicios del Tema 5 1. Escribir el número en binario en notación complemento a dos con 16 bits y convertirlo después a hexadecimal. RESPUESTAS: , CFC7. 2. Escribir el número e7 en coma flotante, empleando 24 bits para la mantisa del bit 0 al 22, suprimiendo el más significativo y poniendo el menos significativo en el bit 0. El exponente se codifica con notación exceso sumando 127 y está en los bits 23 al 30 y el signo se codifica en el bit 31. RESPUESTA: (en hexadecimal 4B3C6100). 3. Sumar y multiplicar los números binarios y Comprobar el resultado pasando a decimal. RESPUESTAS: , , 46, 9, 55, Codificar la palabra supercalifragilisticoespiralidoso de las siguientes formas: a) En ASCII. b) En código de Hamming (a partir del ASCII) en grupos de 8 bits y para corregir errores en un bit. c) En código de Huffman. RESPUESTAS: a) y b) en hexadecimal y c) en binario) a) C C F C F 73 6F b) 79E 7AD C F D D D 79E 7AA 64D 61F 67E 62C 79E D D 62B 67E 79E 67E c) Una posible solución es: u=10100, f=10101, g=10110, t=10111, d=0100, e=0101, c=1000, p=1001, o=1110, r=1111, a=000, l=001, s=011, i=110; Se ha recibido el siguiente mensaje codificado con código de Hamming con errores: 5AE 79C 7AB 47E 2C2 72C 69E FAA 616 2C , corregir los errores y encontrar el mensaje original (en ASCII). RESPUESTA: Esto esta mal. 6. Decodificar el mensaje con el código de Huffman de la respuesta c) del problema 4: RESPUESTA: futuro 100

Unidad Didáctica. Códigos Binarios

Unidad Didáctica. Códigos Binarios Unidad Didáctica Códigos Binarios Programa de Formación Abierta y Flexible Obra colectiva de FONDO FORMACION Coordinación Diseño y maquetación Servicio de Producción Didáctica de FONDO FORMACION (Dirección

Más detalles

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal) Unidad I Sistemas numéricos 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal) Los computadores manipulan y almacenan los datos usando interruptores electrónicos que están ENCENDIDOS o APAGADOS.

Más detalles

Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte)

Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte) Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte) Unidad de trabajo 2: INFORMÁTICA BÁSICA... 1 1. Representación interna de datos.... 1 1.2. Sistemas de numeración.... 2 1.3. Aritmética binaria...

Más detalles

EJERCICIOS DEL TEMA 1

EJERCICIOS DEL TEMA 1 EJERCICIOS DEL TEMA 1 Introducción a los ordenadores 1) Averigua y escribe el código ASCII correspondiente, tanto en decimal como en binario, a las letras de tu nombre y apellidos. Distinguir entre mayúsculas/minúsculas,

Más detalles

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true I. FUNDAMENTOS 3. Representación de la información Introducción a la Informática Curso de Acceso a la Universidad

Más detalles

SISTEMAS DE NUMERACIÓN. Sistema decimal

SISTEMAS DE NUMERACIÓN. Sistema decimal SISTEMAS DE NUMERACIÓN Sistema decimal Desde antiguo el Hombre ha ideado sistemas para numerar objetos, algunos sistemas primitivos han llegado hasta nuestros días, tal es el caso de los "números romanos",

Más detalles

Sistemas de numeración

Sistemas de numeración Sistemas de numeración Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. Los sistemas de numeración actuales son sistemas posicionales, que se caracterizan

Más detalles

1. Informática e información. 2. Sistemas de numeración. 3. Sistema binario, operaciones aritméticas en binario, 4. Sistemas octal y hexadecimal. 5.

1. Informática e información. 2. Sistemas de numeración. 3. Sistema binario, operaciones aritméticas en binario, 4. Sistemas octal y hexadecimal. 5. Representación de la información Contenidos 1. Informática e información. 2. Sistemas de numeración. 3. Sistema binario, operaciones aritméticas en binario, 4. Sistemas octal y hexadecimal. 5. Conversiones

Más detalles

Tema 2 : Códigos Binarios

Tema 2 : Códigos Binarios Tema 2 : Códigos Binarios Objetivo: Conocer diferentes códigos binarios Conocer algunos códigos de detección y corrección de errores. Códigos alfanuméricos 1 Códigos Binarios A la representación de cifras,

Más detalles

Sistemas de Numeración Operaciones - Códigos

Sistemas de Numeración Operaciones - Códigos Sistemas de Numeración Operaciones - Códigos Tema 2 1. Sistema decimal 2. Sistema binario 3. Sistema hexadecimal 4. Sistema octal 5. Conversión decimal binario 6. Aritmética binaria 7. Complemento a la

Más detalles

1. SISTEMAS DIGITALES

1. SISTEMAS DIGITALES 1. SISTEMAS DIGITALES DOCENTE: ING. LUIS FELIPE CASTELLANOS CASTELLANOS CORREO ELECTRÓNICO: FELIPECASTELLANOS2@HOTMAIL.COM FELIPECASTELLANOS2@GMAIL.COM PAGINA WEB MAESTROFELIPE.JIMDO.COM 1.1. INTRODUCCIÓN

Más detalles

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO

EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO EJERCICIOS RESUELTOS SOBRE ERRORES DE REDONDEO 1º) Considérese un número estrictamente positivo del sistema de números máquina F(s+1, m, M, 10). Supongamos que tal número es: z = 0.d 1 d...d s 10 e Responde

Más detalles

TEMA 2: Representación de la Información en las computadoras

TEMA 2: Representación de la Información en las computadoras TEMA 2: Representación de la Información en las computadoras Introducción Una computadora es una máquina que procesa información y ejecuta programas. Para que la computadora ejecute un programa, es necesario

Más detalles

Informática Bioingeniería

Informática Bioingeniería Informática Bioingeniería Representación Números Negativos En matemáticas, los números negativos en cualquier base se representan del modo habitual, precediéndolos con un signo. Sin embargo, en una computadora,

Más detalles

Tema 2. La Información y su representación

Tema 2. La Información y su representación Tema 2. La Información y su representación 2.1 Introducción. Un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica

Más detalles

Capítulo 2 REPRESENTACIÓN DE LOS DATOS. Presentación resumen del libro: "EMPEZAR DE CERO A PROGRAMAR EN lenguaje C"

Capítulo 2 REPRESENTACIÓN DE LOS DATOS. Presentación resumen del libro: EMPEZAR DE CERO A PROGRAMAR EN lenguaje C Presentación resumen del libro: "EMPEZAR DE CERO A PROGRAMAR EN lenguaje C" Autor: Carlos Javier Pes Rivas (correo@carlospes.com) Capítulo 2 REPRESENTACIÓN DE LOS DATOS 1 OBJETIVOS Entender cómo la computadora

Más detalles

Tema I. Sistemas Numéricos y Códigos Binarios

Tema I. Sistemas Numéricos y Códigos Binarios Tema I. Sistemas Numéricos y Códigos Binarios Números binarios. Aritmética binaria. Números en complemento-2. Códigos binarios (BCD, alfanuméricos, etc) Números binarios El bit. Representación de datos

Más detalles

Unidad 1. La información

Unidad 1. La información Unidad 1. La información En esta unidad aprenderás: Los conceptos básicos de la informática. Cómo se representa la información dentro del ordenador. Las unidades de información. 1.1 Conceptos básicos Informática.

Más detalles

SISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: 5 10 2 2 10 1 8 10 0 =528 8 10 3 2 10 2 4 10 1 5 10 0 9 10 1 7 10 2 =8245,97

SISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: 5 10 2 2 10 1 8 10 0 =528 8 10 3 2 10 2 4 10 1 5 10 0 9 10 1 7 10 2 =8245,97 SISTEMAS DE NUMERACIÓN Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. La norma principal en un sistema de numeración posicional es que un mismo símbolo

Más detalles

ANEXO 2: REPRESENTACION DE LA INFORMACION EN LOS COMPUTADORES

ANEXO 2: REPRESENTACION DE LA INFORMACION EN LOS COMPUTADORES ANEXO 2: REPRESENTACION DE LA INFORMACION EN LOS COMPUTADORES SISTEMA DE NUMERACIÓN BASE 2 El sistema de numeración binario es el conjunto de elementos {0, 1} con las operaciones aritméticas (suma, resta,

Más detalles

Lección 1. Representación de números

Lección 1. Representación de números Lección 1. Representación de números 1.1 Sistemas de numeración Empecemos comentando cual es el significado de la notación decimal a la que estamos tan acostumbrados. Normalmente se escribe en notación

Más detalles

TEMA 1: SISTEMAS INFORMÁTICOS. Parte 2: representación de la información

TEMA 1: SISTEMAS INFORMÁTICOS. Parte 2: representación de la información TEMA 1: SISTEMAS INFORMÁTICOS Parte 2: representación de la información Qué vamos a ver? Cómo se representa y almacena la información en un ordenador Cómo podemos relacionar la información que entendemos

Más detalles

DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO

DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO I. SISTEMAS NUMÉRICOS DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO LIC. LEYDY ROXANA ZEPEDA RUIZ SEPTIEMBRE DICIEMBRE 2011 Ocosingo, Chis. 1.1Sistemas numéricos. Los números son los mismos en todos

Más detalles

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Leandro Marín Dpto. de Matemática Aplicada Universidad de Murcia 2012 1 Números 2 Polinomios 3 Funciones y su Representación

Más detalles

Los sistemas de numeración se clasifican en: posicionales y no posicionales.

Los sistemas de numeración se clasifican en: posicionales y no posicionales. SISTEMAS NUMERICOS Un sistema numérico es un conjunto de números que se relacionan para expresar la relación existente entre la cantidad y la unidad. Debido a que un número es un símbolo, podemos encontrar

Más detalles

Introducción a Códigos

Introducción a Códigos Introducción a Página 1 Agenda Página 2 numéricos posicionales numéricos no posicionales Construcción de cantidades Sistema decimal Sistema binario binarios alfanuméricos Conversión decimal a binario Conversión

Más detalles

UNIDAD 2 Configuración y operación de un sistema de cómputo Representación de datos Conceptos El concepto de bit (abreviatura de binary digit) es fundamental para el almacenamiento de datos Puede representarse

Más detalles

Sistema binario. Representación

Sistema binario. Representación Sistema binario El sistema binario, en matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno ( y ). Es el que se utiliza

Más detalles

Capítulo 1: Sistemas de representación numérica Introducción. Dpto. de ATC, Universidad de Sevilla - Página 1 de 8

Capítulo 1: Sistemas de representación numérica Introducción. Dpto. de ATC, Universidad de Sevilla - Página 1 de 8 Dpto. de ATC, Universidad de Sevilla - Página de Capítulo : INTRODUCCIÓN SISTEMAS DE REPRESENTACIÓN NUMÉRICA Introducción Bases de numeración Sistema decimal Sistema binario Sistema hexadecimal REPRESENTACIÓN

Más detalles

1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0 1 0 0 0 0 1 1 0 1 1 0 0 0 1 1 1 1

1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0 1 0 0 0 0 1 1 0 1 1 0 0 0 1 1 1 1 5.1.3 Multiplicación de números enteros. El algoritmo de la multiplicación tal y como se realizaría manualmente con operandos positivos de cuatro bits es el siguiente: 1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0

Más detalles

!!!!!!!! !!!!! Práctica!4.! Programación!básica!en!C.! ! Grado!en!Ingeniería!!en!Electrónica!y!Automática!Industrial! ! Curso!2015H2016!

!!!!!!!! !!!!! Práctica!4.! Programación!básica!en!C.! ! Grado!en!Ingeniería!!en!Electrónica!y!Automática!Industrial! ! Curso!2015H2016! INFORMÁTICA Práctica4. ProgramaciónbásicaenC. GradoenIngenieríaenElectrónicayAutomáticaIndustrial Curso2015H2016 v2.1(18.09.2015) A continuación figuran una serie de ejercicios propuestos, agrupados por

Más detalles

UD 1. Representación de la información

UD 1. Representación de la información UD 1. Representación de la información 1.1 INTRODUCCION... 1 1.2 SISTEMAS DE REPRESENTACIÓN... 2 1.2.1 El Sistema Decimal.... 2 1.2.2 Teorema Fundamental de la Numeración. (TFN)... 2 1.2.3 El Sistema Binario....

Más detalles

SISTEMAS DE NUMERACIÓN

SISTEMAS DE NUMERACIÓN SISTEMAS DE NUMERACIÓN EL SISTEMA DECIMAL Es el sistema usado habitualmente en todo el mundo. Según los antropólogos, el origen del sistema decimal está en los diez dedos que tenemos los humanos en las

Más detalles

Materia: Informática. Nota de Clases Sistemas de Numeración

Materia: Informática. Nota de Clases Sistemas de Numeración Nota de Clases Sistemas de Numeración Conversión Entre Sistemas de Numeración 1. EL SISTEMA DE NUMERACIÓN 1.1. DEFINICIÓN DE UN SISTEMA DE NUMERACIÓN Un sistema de numeración es un conjunto finito de símbolos

Más detalles

SISTEMAS NUMERICOS CAMILO ANDREY NEIRA IBAÑEZ UNINSANGIL INTRODUCTORIO A LA INGENIERIA LOGICA Y PROGRAMACION

SISTEMAS NUMERICOS CAMILO ANDREY NEIRA IBAÑEZ UNINSANGIL INTRODUCTORIO A LA INGENIERIA LOGICA Y PROGRAMACION SISTEMAS NUMERICOS CAMILO ANDREY NEIRA IBAÑEZ UNINSANGIL INTRODUCTORIO A LA INGENIERIA LOGICA Y PROGRAMACION CHIQUINQUIRA (BOYACA) 2015 1 CONTENIDO Pág. QUE ES UN SISTEMA BINARIO. 3 CORTA HISTORIA DE LOS

Más detalles

ARQUITECTURA DE LAS COMPUTADORAS PRACTICA

ARQUITECTURA DE LAS COMPUTADORAS PRACTICA ARQUITECTURA DE LAS COMPUTADORAS PRACTICA SISTEMAS NUMÉRICOS INTRODUCCIÓN TEÓRICA: Definimos Sistema de Numeración como al conjunto de reglas que permiten, con una cantidad finita de símbolos, representar

Más detalles

Representación de la Información

Representación de la Información Representar: Expresar una información como una combinación de símbolos de un determinado lenguaje. Trece -> símbolos 1 y 3 Interpretar: Obtener la información originalmente representada a partir de una

Más detalles

El sistema decimal, es aquél en el que se combinan 10 cifras (o dígitos) del 0 al 9 para indicar una cantidad específica.

El sistema decimal, es aquél en el que se combinan 10 cifras (o dígitos) del 0 al 9 para indicar una cantidad específica. 5.2 SISTEMAS DE NUMERACIÓN. DECIMAL El sistema decimal, es aquél en el que se combinan 10 cifras (o dígitos) del 0 al 9 para indicar una cantidad específica. La base de un sistema indica el número de caracteres

Más detalles

UNIDAD 1. LOS NÚMEROS ENTEROS.

UNIDAD 1. LOS NÚMEROS ENTEROS. UNIDAD 1. LOS NÚMEROS ENTEROS. Al final deberás haber aprendido... Interpretar y expresar números enteros. Representar números enteros en la recta numérica. Comparar y ordenar números enteros. Realizar

Más detalles

Los números racionales

Los números racionales Los números racionales Los números racionales Los números fraccionarios o fracciones permiten representar aquellas situaciones en las que se obtiene o se debe una parte de un objeto. Todas las fracciones

Más detalles

Divisibilidad y números primos

Divisibilidad y números primos Divisibilidad y números primos Divisibilidad En muchos problemas es necesario saber si el reparto de varios elementos en diferentes grupos se puede hacer equitativamente, es decir, si el número de elementos

Más detalles

1.3 Números racionales

1.3 Números racionales 1.3 1.3.1 El concepto de número racional Figura 1.2: Un reparto no equitativo: 12 5 =?. Figura 1.3: Un quinto de la unidad. Con los números naturales y enteros es imposible resolver cuestiones tan simples

Más detalles

INFORMÁTICA. Práctica 5. Programación en C. Grado en Ingeniería en Electrónica y Automática Industrial. Curso 2013-2014. v1.0 (05.03.

INFORMÁTICA. Práctica 5. Programación en C. Grado en Ingeniería en Electrónica y Automática Industrial. Curso 2013-2014. v1.0 (05.03. INFORMÁTICA Práctica 5. Programación en C. Grado en Ingeniería en Electrónica y Automática Industrial Curso 2013-2014 v1.0 (05.03.14) A continuación figuran una serie de ejercicios propuestos, agrupados

Más detalles

TEMA 1 Representación de la información

TEMA 1 Representación de la información TEMA 1 Representación de la información Tema 1: Representación de la información. Aritmética y Representación binaria 1) Introducción BB1, Cap 2, Ap: 2.1, 2.2.1 2) Sistemas binario-octal-hexadecimal BB1,

Más detalles

Lógica Binaria. Arquitectura de Ordenadores. Codificación de la Información. Abelardo Pardo abel@it.uc3m.es. Universidad Carlos III de Madrid

Lógica Binaria. Arquitectura de Ordenadores. Codificación de la Información. Abelardo Pardo abel@it.uc3m.es. Universidad Carlos III de Madrid Arquitectura de Ordenadores Codificación de la Información Abelardo Pardo abel@it.uc3m.es Universidad Carlos III de Madrid Departamento de Ingeniería Telemática Lógica Binaria COD-1 Internamente el ordenador

Más detalles

8 millares + 2 centenas + 4 decenas + 5 unidades + 9 décimos + 7 céntimos

8 millares + 2 centenas + 4 decenas + 5 unidades + 9 décimos + 7 céntimos COLEGIO HISPANO INGLÉS Rambla Santa Cruz, 94-38004 Santa Cruz de Tenerife +34 922 276 056 - Fax: +34 922 278 477 buzon@colegio-hispano-ingles.es TECNOLOGÍA 4º ESO Sistemas de numeración Un sistema de numeración

Más detalles

Tema 2. Espacios Vectoriales. 2.1. Introducción

Tema 2. Espacios Vectoriales. 2.1. Introducción Tema 2 Espacios Vectoriales 2.1. Introducción Estamos habituados en diferentes cursos a trabajar con el concepto de vector. Concretamente sabemos que un vector es un segmento orientado caracterizado por

Más detalles

Sistemas Digitales Ingeniería Técnica en Informática de Sistemas Curso 2006 2007 Aritmética binaria

Sistemas Digitales Ingeniería Técnica en Informática de Sistemas Curso 2006 2007 Aritmética binaria Oliverio J. Santana Jaria 3. Aritmética tica binaria Sistemas Digitales Ingeniería Técnica en Informática de Sistemas Curso 2006 2007 Para Los La en conocer muchos aritmética comprender otros binaria tipos

Más detalles

Informática Básica: Representación de la información

Informática Básica: Representación de la información Informática Básica: Representación de la información Departamento de Electrónica y Sistemas Otoño 2010 Contents 1 Sistemas de numeración 2 Conversión entre sistemas numéricos 3 Representación de la información

Más detalles

Tema 4: Sistemas de Numeración. Codificación Binaria. Escuela Politécnica Superior Ingeniería Informática Universidad Autónoma de Madrid

Tema 4: Sistemas de Numeración. Codificación Binaria. Escuela Politécnica Superior Ingeniería Informática Universidad Autónoma de Madrid Tema 4: Sistemas de Numeración. Codificación Binaria Ingeniería Informática Universidad Autónoma de Madrid 1 O B J E T I V O S Sistemas de Numeración. Codificación Binaria Conocer los diferentes sistemas

Más detalles

Tema 1. Representación de la información MME 2012-20131

Tema 1. Representación de la información MME 2012-20131 Tema 1 Representación de la información 1 Índice Unidad 1.- Representación de la información 1. Informática e información 2. Sistema de numeración 3. Representación interna de la información 2 Informática

Más detalles

Computación I Representación Interna Curso 2011

Computación I Representación Interna Curso 2011 Computación I Representación Interna Curso 2011 Facultad de Ingeniería Universidad de la República Temario Representación de Números Enteros Representación de Punto Fijo Enteros sin signo Binarios puros

Más detalles

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos MODULACIÓN TRANSMISION DIGITAL La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda

Más detalles

CURSO 2010-2011 TECNOLOGÍA TECNOLOGÍA 4º ESO TEMA 5: Lógica binaria. Tecnología 4º ESO Tema 5: Lógica binaria Página 1

CURSO 2010-2011 TECNOLOGÍA TECNOLOGÍA 4º ESO TEMA 5: Lógica binaria. Tecnología 4º ESO Tema 5: Lógica binaria Página 1 Tecnología 4º ESO Tema 5: Lógica binaria Página 1 4º ESO TEMA 5: Lógica binaria Tecnología 4º ESO Tema 5: Lógica binaria Página 2 Índice de contenido 1. Señales analógicas y digitales...3 2. Código binario,

Más detalles

Ecuaciones de primer grado con dos incógnitas

Ecuaciones de primer grado con dos incógnitas Ecuaciones de primer grado con dos incógnitas Si decimos: "las edades de mis padres suman 120 años", podemos expresar esta frase algebraicamente de la siguiente forma: Entonces, Denominamos x a la edad

Más detalles

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia. DISCOS RAID Raid: redundant array of independent disks, quiere decir conjunto redundante de discos independientes. Es un sistema de almacenamiento de datos que utiliza varias unidades físicas para guardar

Más detalles

Aritmética finita y análisis de error

Aritmética finita y análisis de error Aritmética finita y análisis de error Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Aritmética finita y análisis de error 1 / 47 Contenidos 1 Sistemas decimal

Más detalles

Introducción a la Programación 11 O. Humberto Cervantes Maceda

Introducción a la Programación 11 O. Humberto Cervantes Maceda Introducción a la Programación 11 O Humberto Cervantes Maceda Recordando En la sesión anterior vimos que la información almacenada en la memoria, y por lo tanto aquella que procesa la unidad central de

Más detalles

SISTEMAS DE NUMERACIÓN. www.portalelectrozona.com

SISTEMAS DE NUMERACIÓN. www.portalelectrozona.com SISTEMA DECIMAL El sistema decimal, como su nombre indica, tiene diez cifras o dígitos distintos, que son 4 5 Por lo tanto, diremos que la BASE del sistema de numeración DECIMAL es (base ). 6 7 8 9 Pongamos

Más detalles

CONCEPTOS BÁSICOS DE INFORMÁTICA. REPRESENTACIÓN DE LA INFORMACIÓN.

CONCEPTOS BÁSICOS DE INFORMÁTICA. REPRESENTACIÓN DE LA INFORMACIÓN. INDICE. CONCEPTOS BÁSICOS DE INFORMÁTICA. REPRESENTACIÓN DE LA INFORMACIÓN. TÉRMINOS BÁSICOS DE LA INFORMÁTICA. REPRESENTACIÓN INTERNA DE LA INFORMACIÓN. El SISTEMA BINARIO DE NUMERACION. El sistema decimal

Más detalles

Factorización de polinomios

Factorización de polinomios Factorización de polinomios Polinomios Un polinomio p en la variable x es una expresión de la forma: px a 0 a 1 x a x a n1 x n1 a n x n donde a 0, a 1, a,, a n1, a n son unos números, llamados coeficientes

Más detalles

UNIDAD 3: ARITMÉTICA DEL COMPUTADOR

UNIDAD 3: ARITMÉTICA DEL COMPUTADOR UNIDAD 3: ARITMÉTICA DEL COMPUTADOR Señor estudiante, es un gusto iniciar nuevamente con usted el desarrollo de esta tercera unidad. En esta ocasión, haremos una explicación más detallada de la representación

Más detalles

Apuntes de Matemática Discreta 9. Funciones

Apuntes de Matemática Discreta 9. Funciones Apuntes de Matemática Discreta 9. Funciones Francisco José González Gutiérrez Cádiz, Octubre de 004 Universidad de Cádiz Departamento de Matemáticas ii Lección 9 Funciones Contenido 9.1 Definiciones y

Más detalles

En la actualidad ASCII es un código de 8 bits, también conocido como ASCII extendido, que aumenta su capacidad con 128 caracteres adicionales

En la actualidad ASCII es un código de 8 bits, también conocido como ASCII extendido, que aumenta su capacidad con 128 caracteres adicionales Definición(1) Sistemas numéricos MIA José Rafael Rojano Cáceres Arquitectura de Computadoras I Un sistema de representación numérica es un sistema de lenguaje que consiste en: un conjunto ordenado de símbolos

Más detalles

1.1. Introducción y conceptos básicos

1.1. Introducción y conceptos básicos Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................

Más detalles

Cifras significativas e incertidumbre en las mediciones

Cifras significativas e incertidumbre en las mediciones Unidades de medición Cifras significativas e incertidumbre en las mediciones Todas las mediciones constan de una unidad que nos indica lo que fue medido y un número que indica cuántas de esas unidades

Más detalles

Múltiplos y divisores

Múltiplos y divisores 2 Múltiplos y divisores Objetivos En esta quincena aprenderás a: Saber si un número es múltiplo de otro. Reconocer las divisiones exactas. Hallar todos los divisores de un número. Reconocer los números

Más detalles

Práctica 5. Curso 2014-2015

Práctica 5. Curso 2014-2015 Prácticas de Seguridad Informática Práctica 5 Grado Ingeniería Informática Curso 2014-2015 Universidad de Zaragoza Escuela de Ingeniería y Arquitectura Departamento de Informática e Ingeniería de Sistemas

Más detalles

ÍNDICE DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ

ÍNDICE DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ ELECTRÓNICA DIGITAL DISEÑO DE CONTADORES SÍNCRONOS JESÚS PIZARRO PELÁEZ IES TRINIDAD ARROYO DPTO. DE ELECTRÓNICA ÍNDICE ÍNDICE... 1 1. LIMITACIONES DE LOS CONTADORES ASÍNCRONOS... 2 2. CONTADORES SÍNCRONOS...

Más detalles

CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA

CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA Para generar una transmisión segura de datos, debemos contar con un canal que sea seguro, esto es debemos emplear técnicas de forma que los datos que se envían de una

Más detalles

La ventana de Microsoft Excel

La ventana de Microsoft Excel Actividad N 1 Conceptos básicos de Planilla de Cálculo La ventana del Microsoft Excel y sus partes. Movimiento del cursor. Tipos de datos. Metodología de trabajo con planillas. La ventana de Microsoft

Más detalles

UNIDAD Nº 1: 1. SISTEMAS DE NUMERACION. Formalizado este concepto, se dirá que un número X viene representado por una cadena de dígitos:

UNIDAD Nº 1: 1. SISTEMAS DE NUMERACION. Formalizado este concepto, se dirá que un número X viene representado por una cadena de dígitos: UNIDAD Nº 1: TECNICATURA EN INFORMATICA UNLAR - CHEPES 1.1. INTRODUCCION 1. SISTEMAS DE NUMERACION El mundo del computador es un mundo binario. Por el contrario, el mundo de la información, manejada por

Más detalles

TEMA II: REPRESENTACIÓN DE LA INFORMACIÓN

TEMA II: REPRESENTACIÓN DE LA INFORMACIÓN TEMA II: REPRESENTACIÓN DE LA INFORMACIÓN 2.1. Introducción. El computador procesa información. Para que un ordenador ejecute unos datos es necesario darle dos tipos de información: las instrucciones que

Más detalles

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: germanpaz_ar@hotmail.com =========0========= Introducción

Más detalles

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice

Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice Tema 1: Fundamentos de lógica, teoría de conjuntos y estructuras algebraicas: Apéndice 1 Polinomios Dedicaremos este apartado al repaso de los polinomios. Se define R[x] ={a 0 + a 1 x + a 2 x 2 +... +

Más detalles

Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal

Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal Artículo adaptado del artículo de Wikipedia Sistema Binario en su versión del 20 de marzo de 2014, por varios autores bajo la Licencia de Documentación

Más detalles

Aritmética Binaria. Luis Entrena, Celia López, Mario García, Enrique San Millán. Universidad Carlos III de Madrid

Aritmética Binaria. Luis Entrena, Celia López, Mario García, Enrique San Millán. Universidad Carlos III de Madrid Aritmética Binaria Luis Entrena, Celia López, Mario García, Enrique San Millán Universidad Carlos III de Madrid 1 Índice Representación de números con signo Sistemas de Signo y Magnitud, Complemento a

Más detalles

Llamamos potencia a todo producto de factores iguales. Por ejemplo: 3 4 = 3 3 3 3

Llamamos potencia a todo producto de factores iguales. Por ejemplo: 3 4 = 3 3 3 3 1. NÚMEROS NATURALES POTENCIAS DE UN NÚMERO NATURAL Llamamos potencia a todo producto de factores iguales. Por ejemplo: 3 4 = 3 3 3 3 El factor que se repite es la base, y el número de veces que se repite

Más detalles

Anterior Sistemas binarios: Aritmética binaria Siguiente ARITMÉTICA BINARIA. Operaciones elementales con números binarios

Anterior Sistemas binarios: Aritmética binaria Siguiente ARITMÉTICA BINARIA. Operaciones elementales con números binarios 1 de 10 27/09/11 09:57 Anterior Sistemas binarios: Aritmética binaria Siguiente ARITMÉTICA BINARIA Operaciones elementales con números binarios Suma de números binarios Resta de números binarios Complemento

Más detalles

TEMA 2 REPRESENTACIÓN BINARIA

TEMA 2 REPRESENTACIÓN BINARIA TEMA 2 REPRESENTACIÓN BINARIA ÍNDICE. INTRODUCCIÓN HISTÓRICA A LA REPRESENTACIÓN NUMÉRICA 2. REPRESENTACIÓN POSICIONAL DE MAGNITUDES 2. Transformaciones entre sistemas de representación (cambio de base)

Más detalles

EXPRESIONES ALGEBRAICAS. POLINOMIOS

EXPRESIONES ALGEBRAICAS. POLINOMIOS EXPRESIONES ALGEBRAICAS. POLINOMIOS 1. EXPRESIONES ALGEBRAICAS. Estas expresiones del área son expresiones algebraicas, ya que además de números aparecen letras. Son también expresiones algebraicas: bac,

Más detalles

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases.

BASES Y DIMENSIÓN. Propiedades de las bases. Ejemplos de bases. BASES Y DIMENSIÓN Definición: Base. Se llama base de un espacio (o subespacio) vectorial a un sistema generador de dicho espacio o subespacio, que sea a la vez linealmente independiente. β Propiedades

Más detalles

Lección 24: Lenguaje algebraico y sustituciones

Lección 24: Lenguaje algebraico y sustituciones LECCIÓN Lección : Lenguaje algebraico y sustituciones En lecciones anteriores usted ya trabajó con ecuaciones. Las ecuaciones expresan una igualdad entre ciertas relaciones numéricas en las que se desconoce

Más detalles

Bases de datos en Excel

Bases de datos en Excel Universidad Complutense de Madrid CURSOS DE FORMACIÓN EN INFORMÁTICA Bases de datos en Excel Hojas de cálculo Tema 5 Bases de datos en Excel Hasta ahora hemos usado Excel básicamente para realizar cálculos

Más detalles

SITEMA BINARIO, OCTAL Y HEXADECIMAL: OPERACIONES

SITEMA BINARIO, OCTAL Y HEXADECIMAL: OPERACIONES Unidad Aritmética Lógica La Unidad Aritmético Lógica, en la CPU del procesador, es capaz de realizar operaciones aritméticas, con datos numéricos expresados en el sistema binario. Naturalmente, esas operaciones

Más detalles

❷ Aritmética Binaria Entera

❷ Aritmética Binaria Entera ❷ Una de las principales aplicaciones de la electrónica digital es el diseño de dispositivos capaces de efectuar cálculos aritméticos, ya sea como principal objetivo (calculadoras, computadoras, máquinas

Más detalles

QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA. La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros.

QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA. La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros. QUÉ ES LA RENTABILIDAD Y CÓMO MEDIRLA La rentabilidad mide la eficiencia con la cual una empresa utiliza sus recursos financieros. Qué significa esto? Decir que una empresa es eficiente es decir que no

Más detalles

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada

Juan Antonio González Mota Profesor de Matemáticas del Colegio Juan XIII Zaidín de Granada FUNCIONES CONTINUAS. La mayor parte de las funciones que manejamos, a nivel elemental, presentan en sus gráficas una propiedad característica que es la continuidad. La continuidad de una función definida

Más detalles

Sebastián García Galán Sgalan@ujaen.es

Sebastián García Galán Sgalan@ujaen.es Universidad de Jaén E.U.P. Linares Dpto. Telecomunicaciones Área de Ingeniería Telemática Sebastián García Galán Sgalan@ujaen.es TEMA 2: 2.1 CODIFICACIÓN 2.2 SISTEMAS DE NUMERACIÓN BASES DE NUMERACIÓN

Más detalles

Curso Completo de Electrónica Digital

Curso Completo de Electrónica Digital CURSO Curso Completo de Electrónica Digital Este curso de larga duración tiene la intención de introducir a los lectores más jovenes o con poca experiencia a la Electrónica Digital, base para otras ramas

Más detalles

Capítulo 0. Introducción.

Capítulo 0. Introducción. Capítulo 0. Introducción. Bueno, por fin está aquí el esperado (espero!!) Capítulo Cero del Tutorial de Assembler. En él estableceremos algunos conceptos que nos serán de utilidad a lo largo del Tutorial.

Más detalles

Representación en Punto Flotante

Representación en Punto Flotante Representación en Punto Flotante Minaya Villasana Abril-Julio, 2004 1 Representación en base 2 Las computadoras tienen dos formas de representar números: enteros (solo usado para enteros) y punto flotante

Más detalles

INSTITUTO UNIVERSITARIO DE TECNOLOGÍA JOSE LEONARDO CHIRINO PUNTO FIJO EDO-FALCON CATEDRA: ARQUITECTURA DEL COMPUTADOR PROFESOR: ING.

INSTITUTO UNIVERSITARIO DE TECNOLOGÍA JOSE LEONARDO CHIRINO PUNTO FIJO EDO-FALCON CATEDRA: ARQUITECTURA DEL COMPUTADOR PROFESOR: ING. INSTITUTO UNIVERSITARIO DE TECNOLOGÍA JOSE LEONARDO CHIRINO PUNTO FIJO EDO-FALCON CATEDRA: ARQUITECTURA DEL COMPUTADOR PROFESOR: ING. JUAN DE LA ROSA T. TEMA 1 Desde tiempos remotos el hombre comenzó a

Más detalles

E 1 E 2 E 2 E 3 E 4 E 5 2E 4

E 1 E 2 E 2 E 3 E 4 E 5 2E 4 Problemas resueltos de Espacios Vectoriales: 1- Para cada uno de los conjuntos de vectores que se dan a continuación estudia si son linealmente independientes, sistema generador o base: a) (2, 1, 1, 1),

Más detalles

PRÁCTICA N 2 SISTEMAS DE NUMERACIÓN

PRÁCTICA N 2 SISTEMAS DE NUMERACIÓN PRÁCTICA N 2 SISTEMAS DE NUMERACIÓN Ejercicio 1. Diseñar una planilla EXCEL que tome como dato de entrada un número entero y devuelva la representación en base 2. Testearla con los números 23, 245, 673,

Más detalles

Ámbito Científico-Tecnológico Módulo III Bloque 2 Unidad 1 Quien parte y reparte, se lleva la mejor parte

Ámbito Científico-Tecnológico Módulo III Bloque 2 Unidad 1 Quien parte y reparte, se lleva la mejor parte Ámbito Científico-Tecnológico Módulo III Bloque 2 Unidad 1 Quien parte y reparte, se lleva la mejor parte En esta unidad vamos a estudiar los números racionales, esto es, los que se pueden expresar en

Más detalles

Escuela Politécnica Superior Ingeniería Informática Universidad Autónoma de Madrid

Escuela Politécnica Superior Ingeniería Informática Universidad Autónoma de Madrid Tema 3: Sistemas de Numeración. Codificación Binaria Ingeniería Informática Universidad Autónoma de Madrid 1 O B J E T I V O S Sistemas de Numeración. Codificación Binaria Conocer los diferentes sistemas

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles