COMPARACIÓN DE TÉCNICAS DE DETECCIÓN DE CAMBIOS DE PLANO SOBRE VÍDEO COMPRIMIDO CAPÍTULO 2: VÍDEO COMPRIMIDO

Tamaño: px
Comenzar la demostración a partir de la página:

Download "COMPARACIÓN DE TÉCNICAS DE DETECCIÓN DE CAMBIOS DE PLANO SOBRE VÍDEO COMPRIMIDO CAPÍTULO 2: VÍDEO COMPRIMIDO"

Transcripción

1 CAPÍTULO 2: VÍDEO COMPRIMIDO

2

3 2. VÍDEO COMPRIMIDO 2.1. Antecedentes La cantidad de información que diariamente manejamos va en aumento. El uso de conexiones de Internet de gran ancho de banda, la capacidad de almacenamiento de los discos duros, memorias flash y soportes ópticos es cada vez mayor. El precio por bit transmitido o almacenado es cada vez menor y, aún así, la compresión se hace necesaria para facilitar el almacenamiento y transmisión de la información. La compresión de vídeo tiene dos importantes ventajas: hace posible utilizar vídeo digital en medios que no soportarían información sin comprimir (los anchos de banda de Internet son insuficientes para manejar vídeo sin comprimir en tiempo real y un DVD sólo puede almacenar unos segundos de éste) y hace un uso más eficiente de los recursos de transmisión y almacenamiento de la información. En resumen, la compresión de vídeo hace que la difusión de éste sea más sencilla y rápida, sin una pérdida apreciable de calidad. La mayoría de las técnicas de compresión se basan en la compresión con pérdidas, donde se consigue una mayor compresión a costa de la calidad de la señal reconstruida. El objetivo de un algoritmo para la compresión de vídeo es maximizar la eficiencia de la compresión a la vez que minimizar la distorsión introducida durante ésta. El grupo MPEG (Moving Picture Expert Group) es un grupo de trabajo de la ISO (International Standardization Organization) y del IEC (International Electrotechnical Commision). El cometido de este grupo es el de desarrollar estándares para la compresión, procesamiento y representación de señales de audio y video, actividad que ha desempeñado desde El primero de la serie de estándares fue MPEG-1, creado con la intención de hacer posible el almacenamiento de vídeo en discos ópticos. El siguiente fue MPEG-2, el estándar audiovisual más extendido en aplicaciones multimedia, usado en la televisión digital, DVDs y ordenadores personales. Con un formato más potente que MPEG-1, es capaz de alcanzar niveles de compresión muy elevados, manteniendo, no obstante, una buena calidad de vídeo. MPEG-4 Visual (ISO Part 2: Coding of Audio-Visual Object ) es el sucesor de MPEG-2. Este estándar supera al anterior en eficiencia de compresión, consiguiendo reducir la información a transmitir manteniendo la misma calidad de imagen, y en flexibilidad, con un amplio abanico de aplicaciones. Esto lo ha conseguido de dos maneras: usando algoritmos de compresión más avanzados y proporcionando un conjunto de herramientas para manipular y codificar la información multimedia. Página 5

4 MPEG-4 Visual consiste en un modelo básico de codificador-descodificador junto con un número herramientas de codificación. El modelo básico es el de codificación híbrido DPCM/DCT (un modelo de códec que usa compensación de movimiento basado en bloques, transformada, cuantización y codificación de entropía) y las funciones adicionales posibilitan, entre otras cosas, un aumento de la eficiencia de la compresión, transmisión fiable, y codificación de una escena por objetos o modelos de animación de cara o cuerpo [14, 18] Captura de vídeo La codificación de vídeo es el proceso de comprimir y descomprimir la señal de vídeo digital. Para comprender cómo funciona la codificación de vídeo es mejor examinar primero la estructura y características de las imágenes digitales y algunos conceptos de muestreo y calidad, para después pasar a describir las partes fundamentales de la compresión Muestreo de imágenes Una imagen de vídeo típica está compuesta de una serie de objetos cada uno con su forma, textura, profundidad e iluminación. El color y el brillo de una escena de vídeo cambian a lo largo de ella, variando el nivel de intensidad. Las características de la imagen relevantes en la codificación de vídeo son espaciales (variación de la textura en la escena, número y forma de los objetos, etc.) y temporales (movimiento de los objetos, cambios en la iluminación, movimiento de la cámara, etc.). Para representar una imagen en forma digital se necesita muestrearla de forma espacial y de forma temporal. El muestreo espacial se suele hacer superponiendo un rectángulo con los puntos de muestreo, como puede verse en la ilustración 1. La imagen muestreada se reconstruirá representado cada muestra como un elemento de imagen o píxel. La calidad visual de la imagen reconstruida dependerá de la cantidad de muestras tomadas. Ilustración 1: Muestreo espacial Página 6

5 Las muestras temporales son imágenes tomadas cada cierto tiempo, como se puede ver en la ilustración 2. Al reproducir la serie de imágenes o cuadros se produce la sensación de movimiento. A mayor frecuencia de muestreo -más cuadros por segundo- se apreciará un movimiento más suave, pero requerirá de más muestras y por tanto de más información a transmitir. La frecuencia estándar es para televisión de 25 ó 30 cuadros por segundo.. Ilustración 2: Muestreo temporal Una señal de vídeo se puede muestrear como una serie completa de cuadros o imágenes (muestreo progresivo) o como una secuencia de campos entrelazados (muestreo entrelazado). En una secuencia de vídeo entrelazada la mitad de los datos del cuadro completo, un campo, se muestrea cada cierto tiempo. Un campo consiste en las líneas pares o impares de un cuadro completo, y una secuencia de vídeo entrelazada contiene una serie de campos, cada uno representando la mitad de la información del cuadro completo. La principal ventaja de este método de muestreo es que permite mandar el doble de campos por segundo (en televisión 50 ó 60 campos por segundo), dando una mejor sensación de movimiento. En la ilustración 3 se puede ver cómo es el muestreo de una secuencia de vídeo entrelazada: Campo impar Campo par Ilustración 3: Secuencia de vídeo entrelazada. Tras el proceso de muestreo del vídeo se tienen una serie de muestras espaciotemporales (correspondientes a un píxel o elemento de la imagen), representándose cada una por una serie de números que describen el brillo o luminancia y el color de la muestra. Página 7

6 Espacio de color La mayoría de las aplicaciones de vídeo utilizan pantallas de color, por lo que se necesita un mecanismo para capturar y representar la información de color. Una imagen monocroma necesita sólo un número para indicar el brillo o luminancia de cada muestra espacial. Las imágenes de color, por otro lado, requieren al menos tres números para poder reproducir el color de forma precisa. El método elegido para representar tanto la luminancia como el color se conoce como espacio de color. En el espacio de color RGB, una muestra de una imagen en color se representa con tres números que indican la proporción relativa de rojo, verde y azul, los tres colores primarios aditivos de la luz. Cualquier color puede representarse combinando éstos en distintas proporciones. Este espacio de color encaja muy bien en la captura y representación de imágenes, ya que las pantallas contienen elementos de imagen para cada uno de los tres colores. Sin embargo, hay que tener en cuenta otros factores al elegir el espacio de color. En el espacio de color RGB los tres colores tienen igual importancia y se almacenan con la misma resolución. Sin embargo, teniendo en cuenta las deficiencias del sistema visual humano, que es menos sensible al color que a la luminancia, es posible representar una imagen de color de forma más eficiente. Esto lo hace el espacio de color YC r C b, que reduce el ancho de banda de la croma respecto a la luminancia, sin que la pérdida de la calidad sea apreciable. Esta forma de representación del color y sus variantes (como YUV) es una manera muy aceptada de representar las imágenes de color. Y es la componente de luminancia y se puede calcular como una media ponderada de las componentes R, G y B: Y = kr R + kg G + kb B La información de color puede ser representada mediante diferencias de color, croma o crominancia, donde cada componente de croma es la diferencia entre R, G o B y la luminancia Y: Cb = B Y Cr = R Y Cg = G Y La descripción completa de una imagen de color se da con la luminancia y con dos de las diferencias de color, ya que la tercera componente se puede obtener a partir de las otras Página 8

7 dos. En el espacio de color YC r C b sólo se transmiten las componentes de color azul y roja, además de la luminancia. Este espacio utiliza una menor resolución para la croma que para la luminancia, lo que reduce la cantidad de información que se necesita para representar las componentes de crominancia sin disminuir la calidad, de forma que un observador no aprecia una diferencia entre una imagen RGB y una YCbCr. Este espacio de color se convierte, por tanto, en una forma efectiva y sencilla de comprimir la información [5, 18] Formatos de muestreo Los sistemas de vídeo transmiten los datos de la imagen con tres componentes: una que representa el brillo, la luminancia, y dos componentes que representan el color. Este esquema explota las deficiencias del sistema visual humano, ya que la sensibilidad de éste al color es mucho menor que a la luminancia. Mientras la luminancia se mande con resolución máxima, el color puede submuestrearse manteniendo una buena calidad en la imagen. El muestreo se expresa con tres números enteros separados por dos puntos. La relación entre los dígitos denota el grado de submuestreo vertical y horizontal. El primer dígito indica el número relativo de muestras luminancia; el segundo indica el nivel de submuestreo de las componentes de croma y el tercero, si es cero, indica un submuestreo de dos en las componentes de croma. MPEG-4 Visual soporta tres tipos de formatos de muestreo: 4:4:4, 4:2:2 y 4:2:0. En el primero, las tres componentes (Y, C b y C r ) se envían con la misma resolución, no hay submuestreo de croma y, por tanto, se utiliza en aplicaciones de vídeo de muy alta calidad de color. En el muestreo 4:2:2, las componentes de croma tienen la misma resolución vertical que la luminancia pero la mitad de la resolución horizontal. Este tipo de muestreo se utiliza en imágenes con reproducción de color de calidad. En el formato de muestreo más usado, 4:2:0, las componentes de croma tienen la mitad de resolución horizontal y la mitad de resolución vertical que la luminancia. Este tipo se utiliza en aplicaciones como en la vídeoconferencia, en la televisión digital y el en almacenamiento en DVD. Al tener cada componente de croma la cuarta parte de muestras que la luminancia, el vídeo en formato 4:2:0 necesita exactamente la mitad de muestras que el video RGB [8, 17,18]. Las ilustraciones 4,5 y 6 muestran los tres formatos de muestreo: Ilustración 4: Muestreo 4:4:4 Página 9

8 Ilustración 5: Muestreo 4:2:2. Ilustración 6: Muestreo 4:2: Formato de vídeo El estándar de compresión de video puede comprimir una amplia variedad de formatos de video. En la práctica se suele capturar o convertir el vídeo en varios formatos intermedios antes de la compresión y la transmisión. La elección de la resolución depende de la aplicación y la capacidad de almacenamiento o transmisión. El formato CIF (Common Intermediate Format) es la base de los formatos que más se utilizan y tiene 352 píxeles por línea y 288 líneas. También se utilizan el formato 4CIF (704x576) que es el más apropiado para la televisión estándar y el vídeo DVD; CIF y QCIF (Quarter CIF, 176x144) se usan en aplicaciones de vídeo conferencia; QCIF o SQCIF (Sub-CIF, 128x96) se usan en aplicaciones multimedia de móviles, donde la resolución de la pantalla y la tasa de transmisión son pequeñas. Estos son los 5 formatos de vídeo estandarizados, pero es posible utilizar otro formato definido por el consumidor [22]. Se ha visto pues que con el muestreo de una señal analógica se obtiene una señal digital que proporciona más calidad de imagen y precisión, y que es compatible con otros medios digitales y sistemas de transmisión, pero que, normalmente, ocupa un gran ancho de banda. El siguiente punto introduce los conceptos básicos de la compresión de video, necesaria para optimizar las capacidades de almacenamiento y transmisión Codificación de vídeo La compresión de video es el proceso de compactar o condensar una secuencia digital de video en un número pequeño de bits. La compresión se consigue eliminando la redundancia en los datos, es decir, eliminando los datos que no son necesarios para una reproducción fiel del vídeo original. Muchos tipos de datos contienen redundancia estadística, Página 10

9 y se pueden comprimir de forma efectiva y sin pérdidas, de forma que la señal reconstruida sea una copia perfecta de la original. Con esta compresión sin pérdidas se consigue reducir la cantidad de información tres o cuatro veces, por lo que se hace necesario el empleo de una compresión con pérdidas a fin de obtener unos niveles de compresión mayores. En un sistema de compresión con pérdidas, la información descomprimida no es idéntica a la original, y se pueden conseguir niveles de compresión mayores a costa de una pérdida de calidad visual. Los sistemas de compresión con pérdidas se basan en eliminar la redundancia, es decir, los elementos de la imagen o de la secuencia de vídeo que se pueden eliminar sin afectar a la calidad visual que percibe el espectador. Existen dos tipos de redundancia que explotan la mayoría de los métodos de compresión para conseguir que ésta sea eficiente: la redundancia temporal y la espacial. En el dominio temporal, hay normalmente una alta correlación entre cuadros capturados en instantes de tiempo consecutivos, especialmente si la frecuencia de muestreo temporal es alta. En el dominio espacial, hay normalmente un gran parecido entre píxeles que se encuentran en posiciones próximas de forma que las muestras adyacentes son muy similares. El estándar MPEG-4 Visual define un modelo de códec que usa compensación de movimiento basada en bloques, transformada, cuantización y codificación de entropía. En la ilustración 7 se puede ver el modelo básico que sigue este estándar: Ilustración 7: Modelo básico de un codificador Página 11

10 El modelo de códec básico transforma la secuencia de video original en otra que tiene el menor número de bits posible, pero que al decodificarla debe ser lo más fiel posible a la original. Estos dos objetivos, conseguir una alta eficiencia en la compresión y una buena calidad, son incompatibles, ya que niveles de compresión mayores suponen una menor calidad de la imagen reconstruida. Un codificador de video consiste en tres unidades funcionales básicas: el modelo temporal, el modelo espacial y el codificador de entropía. La entrada al modelo temporal es la secuencia de video original. Este modelo intenta reducir la redundancia temporal explotando el parecido entre cuadros consecutivos, normalmente usando una predicción que se forma del cuadro actual y compensando las diferencias entre la predicción y el original (predicción de compensación de movimiento). La salida del modelo temporal es un cuadro residual (obtenido restando la predicción del cuadro actual) y un conjunto de los parámetros del modelo, normalmente vectores de movimiento describiendo cómo se compensó el movimiento. El cuadro residual es la entrada al modelo espacial que utiliza el parecido entre muestras adyacentes para reducir la redundancia espacial, aplicando una transformada a las muestras residuales y cuantificando los resultados. La salida del modelo espacial es un conjunto reducido de coeficientes cuantificados de la transformada. Los parámetros del modelo temporal, normalmente vectores de movimiento, y del modelo espacial, los coeficientes, se comprimen en el codificador de entropía. Éste elimina la redundancia estadística de los datos, (por ejemplo, asignando un código corto a los coeficientes o vectores de movimiento que se repiten mucho) y produce una secuencia de bits comprimida para transmitir o almacenar. La secuencia de video comprimida consiste, por tanto, en los parámetros de los vectores de movimiento codificados, los coeficientes residuales codificados e información de cabecera. El decodificador reconstruye cada cuadro a partir de la secuencia de video comprimida. Los coeficientes y los vectores de movimiento se decodifican en el decodificador de entropía para después en el modelo temporal reconstruir una versión del cuadro residual. Éste se utiliza junto con los vectores de movimiento y con uno o varios cuadros anteriores o posteriores para crear la predicción del cuadro actual y sumársela al residual para reconstruir el original [3, 18] Redundancia temporal El objetivo del modelo temporal es reducir la redundancia entre cuadros consecutivos, formando una predicción y restando ésta al cuadro actual. La salida de este proceso es un Página 12

11 cuadro residual, y cuanto más exacta sea la predicción, menos energía contendrá el residual. El cuadro residual se codifica y se envía al decodificador que recrea la predicción, añade el residual decodificado y reconstruye el cuadro original. La predicción se forma a partir de uno o más cuadros anteriores o posteriores (cuadros de referencia). La exactitud de la predicción puede mejorarse compensando el movimiento entre el cuadro de referencia y el cuadro actual. En la mayoría de los estándares de codificación de vídeo, incluyendo MPEG-1, MPEG-2 y MPEG-4 Visual, el macrobloque, una porción del cuadro de tamaño 16x16 píxeles, es la unidad básica de compensación de movimiento. Para un formato de muestreo de 4:2:0, el macrobloque se puede representar de la siguiente forma: una región de 16x16 píxeles corresponde a 256 muestras de luminancia, divididas en 4 bloques de 8x8; 64 muestras de croma azul, un bloque de 8x8 y 64 de croma roja en otro bloque de 8x8. MPEG-4 Visual procesa cada cuadro en unidades de macrobloques. La ilustración 8 lo muestra: Región de color 16x16 Y Cr Cb Ilustración 8: Macrobloque 4:2:0 Un método muy práctico y utilizado para la compensación de movimiento es compensar éste en regiones rectangulares o bloques del cuadro actual. En MPEG-4 Visual, el proceso se hace para cada macrobloque. En primer lugar, se procede a la estimación del movimiento, buscando en un área de búsqueda del cuadro de referencia (pasado o futuro, previamente codificado y transmitido), un bloque que se parezca más al macrobloque actual. Esto se hace comparando el macrobloque del cuadro actual con cada uno de los bloques del área de búsqueda, centrada normalmente en la posición actual del macrobloque. Un criterio común de elección de la región es la energía del residual producido al restar la región candidata a la original. El bloque elegido se etiqueta como best-match. La ilustración 10 muestra este proceso: Página 13

12 Ilustración 9: Estimación de movimiento La región elegida se convierte en el predictor para el bloque actual y se le resta para formar un macrobloque residual, de luminancia y croma, que se codifica y transmite junto con el vector de movimiento, que describe la posición relativa del bloque elegido como best match. Dentro del codificador, el residual se codifica, decodifica y se añade a la región elegida para formar un macrobloque reconstruido que se guarda como referencia para una posterior predicción de compensación de movimiento. Es necesario utilizar el residual decodificado para asegurar que el codificador y el decodificador utilizan la misma referencia para la compensación de movimiento. En el decodificador se utiliza el vector de movimiento recibido para recrear la región predictor y decodifica el bloque residual, lo añade al predictor y construye una versión del bloque original. La compensación de movimiento basada en bloques es muy utilizada por varias razones: es sencilla y tratable de forma computacional, encaja bien en la codificación de cuadros rectangulares y con transformadas de imagen basadas en bloques (como la DCT, que se describirá más tarde). En general, proporciona un modelo temporal razonablemente efectivo para muchas secuencias de vídeo. Sin embargo, también tiene desventajas. Por ejemplo, los objetos se moverán un número fraccional de posiciones de píxel y muchos modos de movimiento de objetos son difíciles de compensar como es el caso de rotaciones u objetos deformables. A pesar de estas desventajas, la compensación de movimiento basada en bloques es la base del modelo temporal utilizado en todos los estándares de codificación de video actuales. Existen muchas variantes al modelo básico de estimación y compensación de movimiento. El cuadro de referencia puede ser anterior en la secuencia de imágenes, Página 14

13 posterior o una combinación de ambos. Si se elige un cuadro de referencia futuro, se necesita codificar antes la referencia que el cuadro actual. Si hay una gran diferencia entre el cuadro actual y el de referencia como, por ejemplo, un cambio de plano, puede resultar más eficiente codificar el macrobloque sin compensación de movimiento, de forma que el codificador pueda elegir entre codificar cada macrobloque en modo intra (codificar sin compensación de movimiento) o inter (codificar con compensación de movimiento). Se puede utilizar un tamaño de bloque variable para la estimación y compensación de movimiento y usar interpolación para crear muestras en posiciones subpixel, de forma que aumente la precisión de la estimación [3, 11, 18] Redundancia espacial Una imagen de vídeo real consiste en una matriz de muestras. Las imágenes reales son difíciles de comprimir por la alta correlación entre muestras adyacentes. Sin embargo, la imagen residual que queda tras la compensación de movimiento tiene una función de correlación que decae rápido a medida que crece la distancia, indicando que las muestras adyacentes están poco correlacionadas. Una compensación de movimiento eficiente reduce la correlación local en el residual, lo que lo hace más fácil comprimir que la imagen original. Esto se puede apreciar en la ilustración 10: Ilustración 10: Correlación en la imagen original y en el residual. La función del modelo espacial es reducir los datos de la imagen todo lo posible para que esté en una forma que pueda ser eficientemente comprimida en un codificador de entropía. Los modelos de imagen más comunes tienen tres componentes principales: transformación, que compacta la información; cuantización, que reduce la precisión de los datos transformados, y reordenación, que agrupa los valores más significativos. De una forma similar a la predicción temporal para reducir la cantidad de información, se puede hacer una predicción de la imagen de forma a partir de otras muestras de la misma imagen. La codificación predictiva se ha usado desde los primeros algoritmos de codificación y se suele llamar DPCM (Diferencial Pulse Code Modulation). Página 15

14 En la ilustración 10 se puede ver un píxel X que ha de codificarse. Si el cuadro se procesa en orden matricial (de izquierda a derecha y de arriba a abajo), los píxeles A, B y C (píxeles vecinos en la fila anterior y en la actual) están disponibles tanto en el codificador como en el decodificador. El codificador forma una predicción de X basada en alguna combinación de píxeles previamente codificados, la resta de X y codifica el residual. El decodificador forma la misma predicción y añade el residual a ésta para reconstruir el píxel. Ilustración 11: Codificación predictiva Si el proceso de decodificación es con pérdidas, puede que los píxeles A, B y C reconstruidos no sean idénticos a los originales y se vaya produciendo un error acumulativo. En ese caso, el codificador debería decodificar los residuales, reconstruir los píxeles y usar éstos para formar la predicción minimizando así los errores. La eficiencia de la compresión conseguida de esta manera dependerá de la exactitud de la predicción. Si la predicción es buena, entonces el residual será pequeño. No obstante, es complicado elegir un predictor que funcione bien para todas las áreas de una imagen. Un mejor resultado se puede obtener adaptando el predictor dependiendo de las estadísticas de la imagen, siendo necesario que sea especificado por el codificador, de forma que la eficiencia conseguida con este método compense la información extra que habrá que enviar Transformada El objetivo de la capa de transformada en un codificador de vídeo es convertir el residual que queda tras la compensación de movimiento en otro dominio: el de la transformada. La transformada elegida deberá compactar los datos en un número pequeño de coeficientes, ser reversible y tratable de forma computacional. La mayoría de las transformadas propuestas para codificación de vídeo se pueden clasificar en dos categorías: basadas en bloques y basadas en imagen. Las transformadas basadas en bloques operan sobre bloques NxN de la imagen o sobre muestras residuales y por tanto la imagen se procesa en unidades de bloque. Estas transformadas requieren poca memoria y encajan bien con los algoritmos de compresión con compensación de movimiento por bloques, pero la correlación entre los bordes de los bloques no se elimina y esto resulta apreciable. Página 16

15 Por el contrario, las transformadas basadas en imágenes transforman el cuadro entero o una sección grande de éste. Estas transformadas funcionan mejor que las primeras pero necesitan de mayor capacidad de memoria por procesar la imagen completa como una unidad y no se complementa adecuadamente con la compensación de movimiento basada en bloques. MPEG-4 Visual soporta dos tipos de transformadas: la DCT (Discrete Cosine Transform), basada en bloques, y la DWT (Discrete Wavelet Transform), basada en imagen, que se describen a continuación. Transformada DCT: La transformada DCT opera sobre un bloque de NxN muestras, para obtener un nuevo bloque Y de NxN coeficientes. La operación se puede describir mediante una matriz A, de forma que la transformación hacia delante sería: Y = A X T A Y la transformada inversa: X T = A Y A donde X es una matriz de muestras. Los elementos de A son: A ij = C i cos (2 j + 1) iπ 2N donde: 1 2 C i = ( i = 0) C i = ( i > 0) N N En general los coeficientes se pueden expresar de la siguiente manera: Y xy X N 1 N 1 = C x C y i = 0 N 1 N 1 ij = x = 0 y = 0 j = 0 C x C X y ij cos cos ( 2 ( 2 j + 1) y π ( 2 i + 1) x π cos 2 N 2 N j + 1) y π ( 2 i + 1) x π cos 2 N 2 N El resultado de aplicar la transformada es un conjunto de NxN coeficientes que representan los datos del bloque de la imagen en el dominio DCT. Estos coeficientes pueden considerarse como el peso de una serie de patrones básicos. Estos patrones Página 17

16 para bloques de 4x4 ó 8x8 se muestran en las ilustraciones 12 y 13, y se componen de combinaciones de funciones de coseno horizontal y vertical. Cualquier bloque de imagen puede reconstruirse combinando cada patrón NxN multiplicado por el peso que indica el coeficiente. Ilustración 12: Patrón básico de una DCT 4x4 Ilustración 13: Patrón básico de una DCT 8x8 Hasta ahora no hemos conseguido una reducción de la información, en lugar de 16 valores de píxel tenemos 16 coeficientes. La utilidad de la transformada se aprecia cuando el bloque se reconstruye con sólo unos cuantos coeficientes. Al despreciar los coeficientes más insignificantes, normalmente mediante la cuantización, se puede construir la imagen con un número reducido de coeficientes a costa de una ligera pérdida de calidad [3, 10, 11,20]. Transformada DWT: el proceso básico de esta transformada consiste en filtrar una señal, que contiene N muestras, con un filtro paso de baja y con uno paso de alta y submuestrear la salida con un factor de dos. Ambas operaciones se hacen en dirección x. Con esto se ha dividido la señal en dos: una componente de baja frecuencia, L, y otra de alta frecuencia, H, cada una con N/2 muestras. Se filtran y Página 18

17 submuestrean de nuevo pero esta vez en dirección y. Se obtienen entonces 4 imágenes subbanda, una componente que representa el nivel medio (LL), y tres componentes que describen los detalles (LH, HL, HH). Todas estas componentes que pueden combinarse para recuperar la señal original. Se tiene la misma cantidad de información pero la nueva configuración hace más fácil una codificación eficiente. Ilustración 14: Transformada DWT En aplicaciones de compresión de imágenes, se aplica de nuevo la descomposición wavelet a la subbanda LL, formando de nuevo otras cuatro subbandas. La imagen de la subbanda de menor frecuencia puede filtrarse de nuevo para crear un árbol de imágenes subbanda. En la ilustración 15 puede verse el resultado de aplicar dos procesos de descomposición: Ilustración 15: Dos niveles de descomposición de la DWT. Página 19

18 El objetivo de la DWT es transformar la imagen de una forma diferente de manera que el resultado obtenido carezca de los efectos de borde que aparecen en las transformadas basadas en bloques [3, 12] Cuantización Después de aplicar la transformada se tiene la misma cantidad de información, pero distribuida de manera que facilita la compresión. La cuantización mapea el rango de posibles valores de una señal X a un conjunto reducido de valores. Al reducir el número de posibles valores la señal se podrá representar con menos bits y, además, los valores insignificantes se eliminarán. Al cuantizar se divide cada valor por un número positivo no nulo (el paso de cuantización) y se redondea el resultado al entero más próximo. Los cuantizadores uniformes se definen de la siguiente forma: X FQ = round QP Y = FQ QP donde QP es el paso de cuantización. Los niveles cuantizados a la salida están separados QP unidades. En la compresión de vídeo también puede utilizarse un cuantizador variable, que consiste en una matriz de NxN coeficientes que proporciona los valores de los pasos de cuantización, de forma que a coeficientes en distintas posiciones se les aplica un valor de QP diferente. El grado de cuantización aplicado a cada coeficiente depende de la visibilidad del ruido de cuantización que percibe un observador humano. En la práctica, la visibilidad se reduce para frecuencias más altas, para las que se pueden usar unos pasos de cuantización mayores que los utilizados para baja frecuencia. La cuantización consigue reducir la precisión de los datos de la imagen después de aplicar la transformada, deshaciéndose de los valores menos significativos y cercanos a cero. El cuantizador se diseña para que todos los valores despreciables produzcan como salida valores nulos. Por tanto, a la salida del cuantizador tendremos un vector de coeficientes cuantizados con una gran mayoría de ceros [3, 22] Reordenación Los coeficientes de la transformada cuantizados deben codificarse de la forma más compacta posible, antes de su almacenamiento y transmisión. En un codificador de vídeo basado en la transformada, la salida del cuantizador es un vector que contiene algunos coeficientes distintos de cero junto con un gran número de valores nulos. Antes de la Página 20

19 codificación de entropía se reordenan los coeficientes distintos de cero y se representan de otra manera el resto de valores. La forma de reordenar estos coeficientes dependerá del tipo de transformada: Transformada DCT. Los coeficientes significativos obtenidos al aplicar esta transformada sobre un bloque de una imagen son normalmente los de baja frecuencia, cercanos al coeficiente DC, de la posición (0,0). La ordenación óptima depende de la distribución de estos coeficientes, soliendo ser en zig-zag para un bloque de imagen típico. Comenzando por el coeficiente DC, el de la esquina superior izquierda, y seguido por los coeficientes AC, cada coeficiente cuantizado se copia en un vector unidimensional en orden. Los coeficientes nulos se agrupan al principio del vector reordenado, seguido de una larga secuencia de ceros. Ilustración 16: Reordenación en zig-zag. Tras el proceso de reordenación de coeficientes normalmente se tienen uno o más grupos de coeficientes nulos. Éstos podrían ser representados de una forma más compacta, mediante la codificación Run-Level, donde run indica el número de ceros antes del coeficiente no nulo y level la magnitud de ese coeficiente. Los coeficientes DCT de frecuencias mayores normalmente se mapean a cero, por lo que los últimos valores de un vector reordenado serán ceros. Para indicar el último coeficiente nulo de la secuencia se añade otro parámetro: last, de manera que cada coeficiente se representa finalmente con 3 valores. En el último coeficiente el parámetro last se cambia a uno. La tabla 1 muestra un ejemplo: Tabla 1: Codificación Run-Level Coeficientes originales Codificación Run-Level (0,20), (1,15), (0,-3), (3,-7),... Codificación Run-Level-Last (0,20,0), (1,15,0), (0,-3,0), (3,-7,1). Página 21

20 Transformada DWT: usando este tipo de transformada, muchos de los coeficientes en subbandas altas son muy pequeños y al cuantizarlos deben convertirse en ceros sin que se aprecie una pérdida significativa de la calidad de imagen. Los coeficientes no nulos tienen a corresponder con estructuras de la imagen, por ejemplo, con el violín de la ilustración 14. Si un coeficiente de la subbanda de baja frecuencia, LL, es no nulo, hay una gran probabilidad de que los coeficientes en las posiciones correspondientes de las demás subbandas sean también no nulos. Para mejorar la eficiencia de la codificación se construye un árbol de coeficientes cuantizados no nulos, empezando por la subbanda raíz, la de menor frecuencia. Por ejemplo, si se han usado dos niveles de descomposición, un sólo coeficiente de la banda LL de la capa 1 tiene un coeficiente correspondiente en las otras bandas de la capa 1 (todos corresponden a la misma región de la imagen original). De forma análoga, el coeficiente de la capa 1 tiene otros tres coeficientes correspondientes en la capa 2, coeficientes hijo. Ilustración 17: Coeficientes de las capas con la DWT Antes de pasar por el codificador de entropía, se deben representar los datos de la forma más compacta posible. Una forma de conseguirlo es mediante la codificación zerotree. Ésta consiste en lo siguiente: se codifica un coeficiente de la primera capa, y se sigue con sus coeficientes hijo. Este proceso se repite hasta que se llega a un coeficiente nulo, cuando es probable que los coeficientes hijo sean también nulos, y entonces se representan todos por un código que identifica el árbol de ceros. El decodificador reconstruye el mapa de coeficientes a partir de la raíz de cada árbol; los coeficientes no nulos se decodifican y reconstruyen, y cuando se encuentra un código de árbol de ceros se ponen a cero los coeficientes hijo. Ésta es la base del método de codificación EZW (Embedded Zero Tree) [3, 11, 18]. Página 22

21 Codificador de entropía El codificador de entropía convierte una serie de símbolos que representan los elementos de una secuencia de vídeo en una secuencia de bits comprimida adecuada para su almacenamiento o transmisión. Los símbolos de entrada pueden contener coeficientes cuantizados de la transformada, vectores de movimiento, cabeceras, marcas de sincronización e información adicional. Esta codificación tiene dos partes: la codificación predictiva, que consiste en explotar la correlación entre regiones del cuadro codificado, y la codificación de entropía en sí, que puede hacerse con dos técnicas: con los códigos modificados de Huffman de longitud variable o con codificación aritmética. Codificación predictiva: ciertos símbolos están altamente correlacionados en regiones locales de la imagen. Por ejemplo, los coeficientes DC de bloques vecinos codificados de forma intra pueden ser bastante parecidos, o los vectores de movimiento de regiones adyacentes pueden tener componentes similares. La efectividad de la codificación puede aumentarse si se predicen los elementos del bloque o macrobloque actual de la información codificada previamente y codificar la diferencia entre la predicción y el valor actual. La compresión de un vector de movimiento puede mejorarse prediciendo cada vector a partir de otros previamente codificados. Una predicción simple para el vector de movimiento del actual macrobloque X, es el macrobloque adyacente horizontalmente A (en la ilustración 18). También podrían utilizarse para la predicción más vectores codificados previamente (A, B o C en la ilustración). La diferencia entre el vector actual y la predicción (Motion Vector Difference o MVD) se codifica y se transmite. Ilustración 18: Candidatos para la predicción. Del mismo modo, en un códec en tiempo real suele ir cambiando ligeramente el paso de cuantización cada cierto número de macrobloques. En lugar de enviar cada vez el nuevo valor que toma éste, se envía la diferencia entre el nuevo y el antiguo, reduciendo el número de bits necesarios para señalizar este cambio. Página 23

22 Codificación de longitud variable: un codificador de longitud variable asigna a los símbolos de entrada una palabra de código de longitud variable, a la que se suele llamar VLC (Variable Length Code). Los símbolos que ocurran frecuentemente se representan con las palabras más cortas mientras que a los menos probables se les asignan las palabras más largas. En una secuencia larga de símbolos esto se traduce en una apreciable compresión de los datos. Los códigos de Huffman, por ejemplo, se basan en la probabilidad de ocurrencia de un símbolo al asignar las palabras. En el esquema original propuesto es necesario calcular la probabilidad de cada símbolo antes de construir las palabras del código. Este método de codificación presenta dos principales problemas: el decodificador debe tener la tabla de códigos, lo que supone enviar información extra de cabecera y además, para secuencias largas de vídeo, las probabilidades no pueden calcularse hasta que no se haya procesado la secuencia completa, lo que puede introducir retrasos en la codificación. Por estos motivos, se utilizan los que se denominan códigos de Huffman precalculados. Los códigos de Huffman precalculados se basan en las distribuciones de probabilidad de vídeos genéricos. En el perfil simple de MPEG-4 se utilizan los siguientes códigos precalculados: TCOEF (Transform Coefficients): se definen 102 combinaciones posibles de (run, level, last). A cada una le corresponde un código VLC de hasta 13 bits, donde el último representa el signo del coeficiente. El resto de combinaciones se codifican usando la secuencia de escape, seguida de un código de longitud fija de 13 bits que describe los valores de run, level y last. MVD (Motion Vector Difference): los vectores de movimiento diferenciales codificados se representan mediante dos códigos VLC: uno para la componente x y otro para la componente y Estos códigos se parecen a los de Huffman en que cada símbolo se representa con una palabra única y a los símbolos más comunes se le asignan palabras más cortas. En cambio, se diferencian en que se basan en distribuciones de probabilidad genéricas y sólo definen 102 códigos variables, por lo que el resto tienen que codificarse con códigos de longitud fija. Codificación aritmética: un codificador aritmético convierte una secuencia de símbolos en un único número fraccional, dentro del rango [0,1], en lugar de utilizar palabras, lo que hace el código más eficiente. La idea es tener una línea de probabilidad [0,1] y asignar a cada símbolo una porción de esta línea. El tamaño de esta porción será directamente proporcional a la frecuencia con que aparece el símbolo en la secuencia. Al codificar un Página 24

23 símbolo, el intervalo actual se divide en subintervalos como en el paso anterior. El nuevo intervalo será la base para la codificación del siguiente símbolo. La principal ventaja de esta codificación es que el número transmitido no está sujeto a un número fijo de bits para cada símbolo transmitido, por lo que normalmente supera en eficiencia a los códigos de Huffman. La principal desventaja es que se debe recibir la palabra entera para empezar a decodificar y si un solo bit se corrompe, el mensaje entero puede estar mal [3, 6, 18] MPEG-4 VISUAL: Perfil Simple El estándar ISO/IEC , MPEG-4 VISUAL, supera al anterior, MPEG-2, tanto en términos de eficiencia de la compresión, más compresión para la misma calidad visual, como en flexibilidad, permitiendo un mayor número de aplicaciones. Esto se ha conseguido de dos maneras: mediante el uso de algoritmos más avanzados de compresión y la proporción de un extenso conjunto de herramientas para la codificación y manipulación de información digital multimedia. MPEG-4 VISUAL consiste en un núcleo principal -el modelo de codificación híbrido DPCM/DCT- junto con un conjunto de aplicaciones que amplían sus funciones principales, entre las que se encuentran: eficiencia mejorada de compresión, la transmisión fiable, la codificación de objetos dentro de una escena visual o modelos de animación de cuerpo o cara. El estándar define una serie de perfiles, grupos recomendados de herramientas, de forma que en cada aplicación pueda usarse el perfil más apropiado. Entre estos perfiles se encuentran el Simple, con un conjunto pequeño de aplicaciones, el Core o Main, con herramientas para la codificación de múltiples objetos de formas arbitrarias, el Advanced Real Time Simple, con herramientas de tratamiento de errores en transmisiones de bajo retraso, o el Advanced Simple, que proporciona una compresión mejorada utilizando algoritmos más complejos [7]. Una de las novedades que introduce MPEG-4 Visual es que sustituye la secuencia tradicional de vídeo, compuesta por una colección de cuadros rectangulares de vídeo, por una secuencia de objetos de vídeo. Un objeto de vídeo se define como: entidad flexible a la que se puede acceder y manipular y consiste en un área de forma aleatoria de la escena de vídeo que puede durar un tiempo no definido. Un objeto de vídeo en un instante de tiempo en particular es un VOP (Video Object Plane). La introducción de este concepto se traduce en una mayor flexibilidad en la codificación de vídeo. Los objetos pueden codificarse independientemente y con diferentes calidades visuales y resoluciones, de forma que se refleje su importancia en la imagen final y haciendo así la compresión más eficiente. Página 25

24 A pesar de la potencial flexibilidad de la codificación basada en objetos, la aplicación de MPEG-4 Visual más extendida es la codificación de cuadros completos de vídeo. Las herramientas necesarias para manejar VOPs rectangulares, normalmente cuadros completos, se agrupan en los perfiles simples. Las herramientas básicas de éstos son similares a los estándares anteriores, la codificación de macrobloques basada en DCT con predicción de compensación de movimiento. El Perfil Simple se basa en el modelo híbrido de codificación DPCM/DCT con herramientas adicionales para mejorar la eficiencia de la codificación y la transmisión. El formato de la secuencia de vídeo de entrada a un codificador de MPEG-4 es de 4:2:0, 4:2:2 o 4:4:4, progresiva o entrelazada. Un codificador compatible con el Perfil Simple debe ser capaz de codificar y decodificar objetos de vídeo simples usando las siguientes herramientas: I-VOP: codificación de VOPs rectangulares en modo intra, con formato de vídeo progresivo. P-VOP: codificación de VOPs rectangulares en modo inter, con formato de vídeo progresivo. Modo de cabecera corta (para la compatibilidad con otro estándar). Herramientas para la eficiencia de la compresión: cuatro vectores de movimiento por macrobloque, vectores de movimiento sin restricciones, predicción intra. Herramientas de eficiencia de transmisión: paquetes de vídeo, partición de datos, códigos de longitud variable reversibles, etc Herramientas básicas de codificación I-VOP Un I-VOP rectangular es un cuadro de vídeo codificado en modo intra, es decir, sin predicciones a partir de otro VOP codificado. Los procesos de codificación y decodificación se muestran en la ilustración 19: Página 26

25 Ilustración 19: Codificación y decodificación de un I-VOP. DCT e IDCT: los bloques de muestras de luminancia y croma, de tamaño 8x8, se transforman usando la DCT hacia delante en la codificación y la DCT inversa en la decodificación. Cuantización: el estándar MPEG-4 Visual especifica el método de reescalado. Éste se controla con el paso de cuantización, QP, que puede tomar valores en el intervalo [1,31]. Se describen dos métodos de reescalado en el estándar: el método 2 o básico y el método 1, que usa una matriz de cuantización, siendo más flexible pero más complejo. El método 2 hace la cuantización inversa de la siguiente manera: el coeficiente DC en un macrobloque intracodificado se reescala así: DC = DCQ dc _ scaler donde DC Q es el coeficiente cuantizado, DC es el coeficiente reescalado y dc_scaler es un parámetro definido en el estándar. En el modo de cabecera corta, dc_scaler es 8, en el resto de los casos se calcula en función del parámetro QP. El resto de coeficientes, AC y DC tipo inter, se reescalan de esta forma: F F ( 2 FQ + 1) si QP es impar yf 0 ( 2 FQ + 1) 1 si QP es par yf 0 = QP Q = QP Q F = Q 0 si F = 0 Página 27

26 donde F Q es el coeficiente cuantizado y F el coeficiente reescalado. El signo de F es el mismo que el de F Q. La cuantización hacia delante no se define en el estándar. Reordenación en zig-zag: los coeficientes DCT se reordenan en zig-zag antes de codificarlos. Codificación Run-Level (RLE, Run Level Encoding): el vector de coeficientes cuantizados correspondientes a cada bloque se codifica para representar los coeficientes nulos de forma eficiente. Cada coeficiente no nulo se representa con el trío (run, level, last), donde last indica si es el último coeficiente, run indica el número de ceros antes del coeficiente no nulo y level indica el valor y signo del coeficiente. Codificación de entropía o codificación con VLCs (VLE): la información de cabecera y los tríos (run, level, last), se representan con códigos de longitud variable (VLC). Estos códigos son similares a los códigos de Huffman pero están basados en probabilidades precalculadas y están definidos en el estándar. Un I-VOP codificado consiste en una cabecera, otras cabeceras opcionales y los macrobloques codificados. Cada macrobloque se codifica con una cabecera (que define el tipo de macrobloque, indica cuáles de los bloques contienen coeficientes codificados, señaliza los cambios en el parámetro de cuantización, etc.) seguida de los coeficientes codificados de cada bloque 8x8. En el decodificador, la secuencia de códigos VLC se decodifica para extraer los coeficientes de transformada cuantizados, que se reescalan y se transforman con la IDCT para reconstruir el I-VOP decodificado P-VOP Un P-VOP se codifica con predicción intra a partir de un cuadro previamente codificado de tipo I o P. Los procesos de codificación y decodificación se muestran en la ilustración 20: Página 28

27 Ilustración 20: Codificación y decodificación de un P-VOP. Estimación (ME) y compensación de movimiento (MCP): la compensación de movimiento se basa en macrobloques de 16x16 píxeles. La diferencia entre el macrobloque actual y la región de compensación en el cuadro de referencia, el vector de movimiento, puede tener resolución de una porción de píxel. En este caso se realiza una interpolación para obtener muestras en estas posiciones. El método de la estimación de movimiento se deja al diseñador. La región que más se parece se resta al macrobloque actual para producir un macrobloque residual. Tras la compensación de movimiento, el macrobloque residual pasa por el resto de los procesos: transformada DCT, cuantización, reordenación, codificación Run-Level y codificación entrópica. El residual cuantizado se reescala y pasa por la transformación inversa para la reconstrucción de una copia local del macrobloque decodificado. Un P-VOP codificado consiste en una cabecera de VOP, cabeceras opcionales, macrobloques codificados con sus cabeceras (incluyendo esta vez los vectores de movimiento diferenciales codificados) y coeficientes residuales codificados de cada bloque 8x8. El decodificador forma la misma predicción de la compensación de movimiento a partir del vector de movimiento y de su copia local del VOP de referencia. La información residual decodificada se añade a la predicción para reconstruir el macrobloque decodificado. Los macrobloques en un P-VOP pueden estar codificados en modo inter (con predicción de compensación de movimiento) o en modo intra (sin predicción de movimiento). El modo inter dará más eficiencia en la codificación pero el modo intra será útil en regiones donde no haya parecido con regiones de cuadros anteriores. Página 29

28 Modo de cabecera corta La herramienta de cabecera corta proporciona compatibilidad entre MPEG-4 Visual y el estándar de la ITU-T H.263. En este modo, los macrobloques de un VOP se organizan en grupos de bloques (Group Of Blocks, o GOBs), consistiendo cada uno en una o más filas completas de macrobloques y separados, opcionalmente, por marcas de sincronización Herramientas para la eficiencia en la codificación Existen una serie de herramientas en el Perfil Simple de MPEG-4 que mejoran la eficiencia en la codificación. Éstas se utilizan cuando el modo de cabecera corta no está en uso Cuatro vectores de movimiento por macrobloque La compensación de movimiento tiende a ser más efectiva con tamaños de bloque más pequeños. El tamaño de bloque por defecto de la compensación de movimiento es 16x16 muestras de luminancia y 8x8 muestras de croma, con un vector de movimiento por macrobloque. Esta herramienta proporciona al codificador la posibilidad de elegir un menor tamaño de bloque: 8x8 muestras de luminancia y 4x4 de croma, creando cuatro vectores de movimiento por macrobloque. Al aumentar el número de vectores por macrobloque se disminuye la energía del residual que queda al compensar el movimiento, particularmente en áreas de movimiento más complejas como los bordes o en objetos en movimiento. Al mismo tiempo, se incrementa la información de cabecera al mandar cuatro vectores en vez de uno, por lo que el codificador debe elegir el número de vectores en cada macrobloque, según las características, de éste de forma óptima. Ilustración 21: Vectores de movimiento en cada macrobloque Vectores de movimiento sin restricciones En algunos casos, la región que mejor encaja para un macrobloque de 16x16 corresponde a una fuera de las fronteras del cuadro de referencia. El uso de vectores de movimiento sin restricciones permite a los vectores apuntar a regiones fuera del cuadro de referencia. Si el vector de movimiento está fuera del cuadro, se utiliza la última muestra del borde más cercana. Esta herramienta puede mejorar la eficiencia en la compensación de movimiento, especialmente cuando hay objetos moviéndose de dentro a fuera de la imagen. Página 30

UNIVERSIDAD DE SEVILLA

UNIVERSIDAD DE SEVILLA UNIVERSIDAD DE SEVILLA Escuela Superior de Ingenieros Departamento de Teoría de la Señal y Comunicaciones PROYECTO FIN DE CARRERA COMPARACIÓN DE TÉCNICAS DE DETECCIÓN DE CAMBIOS DE PLANO SOBRE VÍDEO COMPRIMIDO

Más detalles

Compresión de imágenes

Compresión de imágenes Compresión de imágenes Tipos de imágenes Desde el punto de vista de la compresión Binarias: Blanco y negro. Escala de grises, color y estacionarias de vídeo. Imágenes binarias Presentes en documentos que

Más detalles

Procesamiento Digital de Imágenes

Procesamiento Digital de Imágenes Unidad VI: Compresión de imágenes II p. 1/24 Procesamiento Digital de Imágenes Unidad VI (b): Compresión de imágenes con pérdidas Departamento de Informática - FICH Universidad Nacional del Litoral 20

Más detalles

Podemos distinguir dos técnicas fundamentales. Ambas se utilizan en estándar MPEG-2.

Podemos distinguir dos técnicas fundamentales. Ambas se utilizan en estándar MPEG-2. 5 CAPA DE AUDIO Aunque en este proyecto no se desarrolla el decodificador del audio MPEG-2 considero de interés introducir algunos conceptos. La parte de la norma que recoge estas ideas es la ISO/IEC 13818-3.

Más detalles

7 El formato JPEG. 7.1 Introducción

7 El formato JPEG. 7.1 Introducción 7 El formato JPEG 7.1 Introducción En un principio la mayoría de las aplicaciones informáticas eran muy simples gráficamente hablando y se ejecutaban en modo texto sin necesidad de presentar imágenes por

Más detalles

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores Compresión de Vídeo Tema.5. Codificación entrópica Juan A. Michell Mar>n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons BY- NC- SA

Más detalles

Compresión de vídeo. Estándares MPEG

Compresión de vídeo. Estándares MPEG Compresión de vídeo http://www.infoab.uclm.es/asignaturas/42609/te ma4/sld035.htm Estándares MPEG Motion Pictures Expert Group Estándar ISO/IEC JTC1/SC29/WG11 MPEG 1: El primer trabajo del grupo, iniciado

Más detalles

Tema 3. Compresión de Datos Multimedia

Tema 3. Compresión de Datos Multimedia Tema 3 Compresión de Datos Multimedia Introducción La compresión es una manipulación o transformación de la información de entrada, que se realiza antes de transmitirla. El objetivo es enviar la información

Más detalles

Compresión de Datos Multimedia

Compresión de Datos Multimedia Tema 3 Compresión de Datos Multimedia Introducción La compresión es una manipulación o transformación de la información de entrada, que se realiza antes de transmitirla. El objetivo es enviar la información

Más detalles

Estándar MPEG 2. Estándar MPEG-2

Estándar MPEG 2. Estándar MPEG-2 Estándar MPEG 2 Estándar MPEG-2 El estándar de compresión de vídeo MPEG-2, fue la segunda fase de trabajo realizado por el grupo MPEG. El conjunto de requerimientos fijados: Compatibilidad con MPEG-1 Buena

Más detalles

Práctica 5. Códigos Huffman y Run-Length

Práctica 5. Códigos Huffman y Run-Length EC2422. Comunicaciones I Enero - Marzo 2009 Práctica 5. Códigos Huffman y Run-Length 1. Objetivos 1.1. Simular, usando MATLAB, un codificador y decodificador Huffman a fin de estudiar sus características

Más detalles

Tema 8: ALMACENAMIENTO

Tema 8: ALMACENAMIENTO Tema 8: ALMACENAMIENTO 1 I N G E N I E R Í A I N F O R M Á T I C A C U R S O 2 0 1 5-2 0 1 6 2 Como ya hemos estudiado, representar una imagen de n x n píxeles mediante una representación matricial requiere:

Más detalles

Tipos de Modulación. PCM Convencional

Tipos de Modulación. PCM Convencional Tipos de Modulación PCM Convencional Con PCM convencional, cada código es una representación binaria de signo y magnitud de una muestra en particular. Por lo tanto, los códigos de bit múltiple se requieren

Más detalles

Dpto. de Ingeniería de Comunicaciones LA IMAGEN DIGITAL

Dpto. de Ingeniería de Comunicaciones LA IMAGEN DIGITAL Dpto. de Ingeniería de Comunicaciones LA IMAGEN DIGITAL Constantino Pérez Vega 2011 1 Aspectos históricos: tubos de cámara. Iconoscopio (c. 1930-40) 2 Orthicón de Imagen (1940 a c.1980) 3 Disector de imagen

Más detalles

Imagen = Histograma. Modificaciones del Histograma

Imagen = Histograma. Modificaciones del Histograma Prof. Karina Palma MV Escuela de Tecnología Médica Universidad de Chile http://nuevorumbo.files.wordpress.com/2007/12/digital.jpg El Histograma Gráfico de Frecuencias, ordena cada pixel de la imagen de

Más detalles

Tema 9. Compresión de imágenes

Tema 9. Compresión de imágenes 1 Div. Ingeniería de Sistemas y Automática Universidad Miguel Hernández GRUPO DE TECNOLOGÍA INDUSTRIAL Tabla de Contenidos 2 Introducción Modelo del sistema de compresión Criterios de fidelidad Métodos

Más detalles

Vídeo Digital Examen de Junio de 2003

Vídeo Digital Examen de Junio de 2003 UNIVERSIDAD DE CASTILLA LA MANCHA Escuela Universitaria Politécnica de Cuenca Ingeniería Técnica de Telecomunicación (Especialidad de Sonido e Imagen) Vídeo Digital Examen de Junio de 2003 PRACTICAS: Del

Más detalles

TV: TeleVisión Plan 2010 Codificación híbrida: Recomendación ITU-T H.261

TV: TeleVisión Plan 2010 Codificación híbrida: Recomendación ITU-T H.261 TV: TeleVisión Plan 2010 Codificación híbrida: Recomendación ITU-T H.261 TV @ ETSIT-UPM (Plan 2010) H.261-1 Contenido 1. Codificador híbrido. 2. Introducción a H.261. 3. Formato de vídeo en H.261. 4. Codificador

Más detalles

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2017

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2017 TEORÍ DE L INFORMCIÓN Tratamiento probabilístico de la Información Compresión de datos INGENIERÍ DE SISTEMS Cursada 7 COMPRESIÓN DE DTOS Objetivo: Reducir la cantidad de datos para representar la información,

Más detalles

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas Banda Ancha Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos MSc. Luis Rojas INTRODUCCIÓN Para el almacenamiento y transmisión eficiente de señales de voz, video y texto

Más detalles

Unidad 3. Técnicas de Modulación

Unidad 3. Técnicas de Modulación Unidad 3. Técnicas de Modulación 3.3 Modulación PCM. 3.4 Modulación DPCM y ADPCM. 3.5 Modulación Delta. 3.6 Multiplexado. 1 Modulación Digital En los sistemas de modulación por pulsos analógicos, la amplitud,

Más detalles

Codificación y compresión de imagen

Codificación y compresión de imagen Codificación y compresión de imagen 1. Introducción. 2. Características de la imagen. 2.1 Captura y digitalización de imagen. 2.2 Tipos de imagen 3. Compresión de imagen. Redundancia espacial. 3.1 Estándar

Más detalles

Vídeo Digital Examen de Junio de 2004

Vídeo Digital Examen de Junio de 2004 UNIVERSIDAD DE CASTILLA LA MANCHA Escuela Universitaria Politécnica de Cuenca Ingeniería Técnica de Telecomunicación (Especialidad de Sonido e Imagen) Vídeo Digital Examen de Junio de 2004 PRACTICAS: Del

Más detalles

TEMA 2. CODIFICACIÓN DE LA INFORMACIÓN

TEMA 2. CODIFICACIÓN DE LA INFORMACIÓN TEMA 2. CODIFICACIÓN DE LA INFORMACIÓN 1. INTRODUCCIÓN. SISTEMAS DE NUMERACIÓN EN. Sistema binario. Sistema octal. Sistema hexadecimal. 2. REPRESENTACIÓN DE TEXTOS.. Números naturales. Números enteros.

Más detalles

Compresión de audio y video Práctica 1: Conceptos preliminares

Compresión de audio y video Práctica 1: Conceptos preliminares Compresión de audio y video Práctica 1: Conceptos preliminares Definiciones MSE (Error cuadrático medio) (Mean Square Error) Dados los datos {x k },k =1...N y los datos aproximados { x k },k = 1...N, el

Más detalles

INTRODUCCION A LA TELEVISION DIGITAL

INTRODUCCION A LA TELEVISION DIGITAL INTRODUCCION A LA TELEVISION DIGITAL Constantino Pérez Vega Dpto. de Ingeniería de Comunicaciones Universidad de Cantabria Santander España perezvr@unican.es http://personales.unican.es/perezvr Junio 2009

Más detalles

Compresión de imágenes usando la transformada de wavelet y el algoritmo de Huffman

Compresión de imágenes usando la transformada de wavelet y el algoritmo de Huffman Compresión de imágenes usando la transformada de wavelet y el algoritmo de Huffman 1 Compresión de imágenes usando la transformada de wavelet y el algoritmo de Huffman Alejandro Henao González RESUMEN

Más detalles

Mario Donnángelo. Seminario de Capacitación en Televisión Digital para Radiodifusores

Mario Donnángelo. Seminario de Capacitación en Televisión Digital para Radiodifusores Seminario de Capacitación en Televisión Digital para Radiodifusores Cambios necesarios en Estudios. Etapas de Migración. Aspectos Prácticos y Económicos. Mario Donnángelo POR QUÉ DIGITAL? Conceptos Previos

Más detalles

Tema 3. Compresión de la información en televisión digital (formato MPEG-2) Contenidos

Tema 3. Compresión de la información en televisión digital (formato MPEG-2) Contenidos Tema 3 Compresión de la información en televisión digital (formato MPEG-2) Contenidos Introducción La compresión de la señal de vídeo La redundancia en la información de vídeo Métodos de compresión por

Más detalles

1. Introducción. 2. Características de la imagen. 3. Compresión de imagen. Redundancia espacial.

1. Introducción. 2. Características de la imagen. 3. Compresión de imagen. Redundancia espacial. Codificación y compresión de imagen 1. Introducción. 2. Características de la imagen. 2.1 Captura y digitalización de imagen. 2.2 Tipos de imagen 3. Compresión de imagen. Redundancia espacial. 3.1 Estándar

Más detalles

Tema 5. Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017

Tema 5. Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017 Profa. Gabriela Leija Hernández Tema 5 Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017 ESIME Unidad Zacatenco DEFINICIÓN DE PCM La

Más detalles

Cap 1: Almacenamiento de Datos

Cap 1: Almacenamiento de Datos Universidad Nacional de Ingeniería Facultad de Ciencias Cálculo Numérico 1 IF321 Cap 1: Almacenamiento de Datos Prof: J. Solano 2018-I Objetivos Despues de estudiar este capitulo el estudiante sera capaz

Más detalles

INGENIERÍA DE SISTEMAS Cursada 2017

INGENIERÍA DE SISTEMAS Cursada 2017 TEORÍA DE LA INFORMACIÓN Compresión de datos con pérdida INGENIERÍA DE SISTEMAS Cursada 207 COMPRESIÓN CON PÉRDIDA Se busca eliminar información redundante o menos relevante (tolerando cierta pérdida sin

Más detalles

Compresión de Vídeo. Juan A. Michell Mar=n Gustavo A. Ruiz Robredo. Tema 1.2. Vídeo digital. Departamento de Electrónica y Computadores

Compresión de Vídeo. Juan A. Michell Mar=n Gustavo A. Ruiz Robredo. Tema 1.2. Vídeo digital. Departamento de Electrónica y Computadores Compresión de Vídeo Tema 1.2. Vídeo digital Juan A. Michell Mar=n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons BY- NC- SA 4.0 VIDEO

Más detalles

y saque conclusiones. Cómo reconstruiría la secuencia original? p j log 2 j p j

y saque conclusiones. Cómo reconstruiría la secuencia original? p j log 2 j p j Compresión de Imágenes Digitales Departamento de Computación, FCEyN, UBA Práctica 1: Entropía, Huffman, PSNR, Cuantización Nota: los ejercicios marcados con ( ) son para hacer SIN computadora. Los archivos,

Más detalles

banda, mayor es la distorsión, y mayor es la probabilidad de que se cometan errores en el receptor.

banda, mayor es la distorsión, y mayor es la probabilidad de que se cometan errores en el receptor. banda, mayor es la distorsión, y mayor es la probabilidad de que se cometan errores en el receptor. Figura 1.10 Componentes en frecuencia de una onda cuadrada (T = 1/f). En la figura 1.11 se muestra una

Más detalles

Tema 3. Compresión de la información de video. Contenidos

Tema 3. Compresión de la información de video. Contenidos Tema 3 Compresión de la información de video Contenidos Introducción La compresión de la señal de vídeo La redundancia en la información de vídeo Métodos de compresión por transformación: la DCT Algunos

Más detalles

2 TÉCNICAS DE COMPRESIÓN DE LA SEÑAL DE VÍDEO

2 TÉCNICAS DE COMPRESIÓN DE LA SEÑAL DE VÍDEO 2 TÉCNICAS DE COMPRESIÓN DE LA SEÑAL DE VÍDEO La compresión es el proceso de compactar los datos en un menor número de bits. En el caso de la compresión de vídeo hemos dicho que necesitamos disminuir la

Más detalles

Sistemas de compresión de la imagen (2ª parte)

Sistemas de compresión de la imagen (2ª parte) Sistemas de compresión de la imagen (2ª parte) Módulo 7: Sistemas de compresión... 3 Índice Etapa 1: Métodos transformales... 5 Sistemas transformados (DCT)... 5 DCT (Discret Cosine Transform)... 6 Transformación

Más detalles

5. Codificación y compresión de imagen

5. Codificación y compresión de imagen 5. Codificación y compresión de imagen. Introducción.. Características de la imagen.. Captura y digitalización de imagen.. Tipos de imagen 3. Compresión de imagen. Redundancia espacial. 3. Estándar JPEG

Más detalles

A veces queremos almacenar algún elemento que es Verdadero o Falso. Este tipo de dato se llama Booleano y su representación es sencilla, para cada

A veces queremos almacenar algún elemento que es Verdadero o Falso. Este tipo de dato se llama Booleano y su representación es sencilla, para cada Hemos visto que los ordenadores modernos son máquinas digitales que sólo funcionan con datos binarios. Así que necesitamos una representación binaria de cada dato que queremos usar en un ordenador. El

Más detalles

3. Espacios de color. 3.Espacios de color. El uso del color en el procesamiento de imágenes está principalmente motivado por dos factores:

3. Espacios de color. 3.Espacios de color. El uso del color en el procesamiento de imágenes está principalmente motivado por dos factores: 3. Espacios de color El uso del color en el procesamiento de imágenes está principalmente motivado por dos factores: El color es un poderoso descriptor que, en la mayoría de los casos simplifica la identificación

Más detalles

CAPITULO 2 ETAPAS DE COMPRESIÓN DE IMAGENES. La transformada discreta del coseno (DCT) también denominada transformada del coseno

CAPITULO 2 ETAPAS DE COMPRESIÓN DE IMAGENES. La transformada discreta del coseno (DCT) también denominada transformada del coseno Etapas de Compresión de Imágenes 11 CAPITULO 2 ETAPAS DE COMPRESIÓN DE IMAGENES 2.1 Transformada Discreta Coseno. La transformada discreta del coseno (DCT) también denominada transformada del coseno es

Más detalles

CAPITULO 3 DESARROLLO. El codificador básico implementa un algoritmo de compresión con perdidas (no se puede

CAPITULO 3 DESARROLLO. El codificador básico implementa un algoritmo de compresión con perdidas (no se puede Desarrollo 31 CAPITULO 3 DESARROLLO 3.1 Procedimientos para la compresión de imágenes. El codificador básico implementa un algoritmo de compresión con perdidas (no se puede recuperar en la decodicación

Más detalles

Captura y Compresión de Vídeo de alta Definición con DSP

Captura y Compresión de Vídeo de alta Definición con DSP Captura y Compresión de Vídeo de alta Definición con DSP Queremos optar el Google Lunar X Price y por tanto debemos enviar vídeo de alta definición (1920x1080 pixeles y 30fps) en tiempo real desde un robot

Más detalles

transmisión de señales

transmisión de señales Introducción al análisis y transmisión de señales La transmisión de información La información se puede transmitir por medio físico al variar alguna de sus propiedad, como el voltaje o la corriente. Este

Más detalles

UNIDAD I.- INTRODUCCIÓN A LA GRAFICACIÓN POR COMPUTADORA

UNIDAD I.- INTRODUCCIÓN A LA GRAFICACIÓN POR COMPUTADORA UNIDAD I.- INTRODUCCIÓN A LA GRAFICACIÓN POR COMPUTADORA LECCIÓN 1.3.- Formatos gráficos de almacenamiento 1.3.1.- Formatos de archivos para gráficos Son formas estándarizadas para almacenar imágenes.

Más detalles

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2016

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2016 TEORÍA DE LA INFORMACIÓN Tratamiento probabilístico de la Información Compresión de datos continuación INGENIERÍA DE SISTEMAS Cursada 2016 Durante la compresión se elimina información redundante (o menos

Más detalles

Digitalización y compresión de vídeo

Digitalización y compresión de vídeo VdoDig 1 Digitalización y compresión de vídeo Principales normas Algoritmos de compresión Formatos de vídeo VdoDig 2 Normas de vídeo digital H-261.- Videoconferencia Formato de poca resolución y pocas

Más detalles

Codificación de audio MPEG. Álvaro Pardo

Codificación de audio MPEG. Álvaro Pardo Codificación de audio MPEG Álvaro Pardo Características del sistema auditivo La sensibilidad del oído es logarítmico respecto a la frecuencia Varía con la frecuencia La discriminación en frecuencia es

Más detalles

Conceptos Básicos para el Procesamiento Digital de Imágenes

Conceptos Básicos para el Procesamiento Digital de Imágenes ELO 313 Procesamiento Digital de Señales con Aplicaciones Conceptos Básicos para el Procesamiento Digital de Imágenes Matías Zañartu, Ph.D. Departamento de Electrónica Universidad Técnica Federico Santa

Más detalles

CAPÍTULO 2. Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver

CAPÍTULO 2. Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver CAPÍTULO 2 PROCESAMIENTO DE IMÁGENES 2.1 Imágenes Digitales Desde el punto de vista más simple, hoy una imagen digital consiste de lo que se puede ver como una matriz de miles o millones de píxeles cada

Más detalles

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una

Más detalles

En algunas ocasiones se utiliza una cuarta parte de la imagen CIF, que se conoce por la abreviatura QCIF (Quarter CIF: cuarta parte de CIF).

En algunas ocasiones se utiliza una cuarta parte de la imagen CIF, que se conoce por la abreviatura QCIF (Quarter CIF: cuarta parte de CIF). Resolución La resolución en un mundo digital o analógico es parecida, pero existen algunas diferencias importantes sobre su definición. En el video analógico, la imagen consiste en líneas, o líneas de

Más detalles

ESTRUCTURA Y TECNOLOGÍA DE COMPUTADORES I CAPÍTULO III ARITMÉTICA Y CODIFICACIÓN

ESTRUCTURA Y TECNOLOGÍA DE COMPUTADORES I CAPÍTULO III ARITMÉTICA Y CODIFICACIÓN ESTRUCTURA Y TECNOLOGÍA DE COMPUTADORES I CAPÍTULO III ARITMÉTICA Y CODIFICACIÓN TEMA 3. Aritmética y codificación 3.1 Aritmética binaria 3.2 Formatos de los números y su representación 3.3 Definiciones

Más detalles

so de Photoshop Cur Copyleft - Jorge Sánchez 2006

so de Photoshop Cur Copyleft - Jorge Sánchez 2006 Curso de Photoshop Copyleft - Jorge Sánchez 2006 Imágenes Según la RAE. Imagen= Figura, representación, semejanza y apariencia de algo. Otra definición (WIKIPEDIA): Forma dibujada, pintada o esculpida,

Más detalles

Conceptos Básicos para el Procesamiento Digital de Imágenes

Conceptos Básicos para el Procesamiento Digital de Imágenes ELO 313 Procesamiento Digital de Señales con Aplicaciones Conceptos Básicos para el Procesamiento Digital de Imágenes Matías Zañartu, Ph.D. Departamento de Electrónica Universidad Técnica Federico Santa

Más detalles

M É T O D O S D E C O M P R E S I O N Y D E S C O M P R E S I O N.

M É T O D O S D E C O M P R E S I O N Y D E S C O M P R E S I O N. A P É N D I C E B M É T O D O S D E C O M P R E S I O N Y D E S C O M P R E S I O N. JPEG (Joint Photographic Expert Group) [12] Método de compresión sofisticado lossy/lossless aplicable a imágenes de

Más detalles

Codificación de vídeo 3D: un caso práctico. Antonio Jesús Díaz Honrubia

Codificación de vídeo 3D: un caso práctico. Antonio Jesús Díaz Honrubia Codificación de vídeo 3D: un caso práctico Antonio Jesús Díaz Honrubia Índice Introducción Tecnologías de vídeo 3D Dispositivos de captura 3D Dispositivos de visualización 3D Codificación de Vídeo Multivista

Más detalles

Vídeo Digital Examen de Junio de 2002

Vídeo Digital Examen de Junio de 2002 UNIVERSIDAD DE CASTILLA LA MANCHA Escuela Universitaria Politécnica de Cuenca Ingeniería Técnica de Telecomunicación (Especialidad de Sonido e Imagen) Vídeo Digital Examen de Junio de 2002 1.- En la siguiente

Más detalles

La Modulación. Ing. Carlos Eduardo Molina C.

La Modulación. Ing. Carlos Eduardo Molina C. La Modulación La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda original y una

Más detalles

Universidad Carlos III de Madrid

Universidad Carlos III de Madrid Universidad Carlos III de Madrid Ingeniería de telecomunicación PROYECTO FIN DE CARRERA DISEÑO DE UN ALGORITMO RÁPIDO PARA DECISIÓN DE MODO EN H.264 Autor: Miguel Ángel Pellón López Tutor: Eduardo Martínez

Más detalles

Comunicaciones I. Capítulo 4 CODIFICACIÓN Y MODULACIÓN

Comunicaciones I. Capítulo 4 CODIFICACIÓN Y MODULACIÓN Comunicaciones I Capítulo 4 CODIFICACIÓN Y MODULACIÓN 1 Resumen de lo visto en el Capítulo 4 Se analizó la diferencia entre datos analógicos y digitales, y entre señales analógicas y digitales. A partir

Más detalles

Sistemas de compresión de la imagen (1ª parte)

Sistemas de compresión de la imagen (1ª parte) Sistemas de compresión de la imagen (1ª parte) Módulo 6: Sistemas de compresión... 3 Índice Etapa 1: La necesidad de la compresión... 5 Necesidad de la compresión... 5 Aplicaciones de la compresión...

Más detalles

Introducción al MPEG-4. José Ignacio Estévez Damas

Introducción al MPEG-4. José Ignacio Estévez Damas Introducción al MPEG-4 José Ignacio Estévez Damas 1 de febrero de 2007 Resumen Este documento constituye una introducción al estándar MPEG-4. No pretende ser una descripción exhaustiva, para la cual me

Más detalles

Examen Final Extraordinario

Examen Final Extraordinario TRANSMISIÓN DE DATOS 2008/09 Examen Final Extraordinario Apellidos, nombre DNI 9 de septiembre de 2009 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique

Más detalles

Compresión de Vídeo. Juan A. Michell Mar=n Gustavo A. Ruiz Robredo. Tema 1.4. Codificación por transformada: JPEG

Compresión de Vídeo. Juan A. Michell Mar=n Gustavo A. Ruiz Robredo. Tema 1.4. Codificación por transformada: JPEG Compresión de Vídeo Tema 1.4. Codificación por transformada: JPEG Juan A. Michell Mar=n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons

Más detalles

Transmisión Digital (60123) Fredy Castellanos - UNET -

Transmisión Digital (60123) Fredy Castellanos - UNET - Especialización en Telecomunicaciones Transmisión Digital (60123) 1 Transmisión Digital Ventajas: Inmunidad al Ruido Mejor Procesamiento y Multicanalización Utilización de Regeneración en lugar de Amplificación

Más detalles

Introducción general a la compresión de datos multimedia

Introducción general a la compresión de datos multimedia Introducción general a la compresión de datos multimedia Necesidad de la compresión La mayoría de las aplicaciones multimedia requieren volúmenes importantes de almacenamiento y transmisión. CD-ROM 640

Más detalles

Unidad IV: Tratamiento de Imagen

Unidad IV: Tratamiento de Imagen Unidad IV: Tratamiento de Imagen Introducción Conceptos Básicos Docente: Ing. Araceli Torres López Qué es la imagen digital? La definición de digital es toda información representada por una serie de pulsos

Más detalles

Examen Final Televisión Digital 12 de junio de 2008 TELEVISIÓN DIGITAL 2007/08

Examen Final Televisión Digital 12 de junio de 2008 TELEVISIÓN DIGITAL 2007/08 Examen Final Apellidos, nombre DNI TELEVISIÓN DIGITAL 2007/08 12 de junio de 2008 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique Este examen está

Más detalles

Autenticación de imágenes digitales. Dra. Mariko Nakano Miyatake ESIME Culhuacan IPN

Autenticación de imágenes digitales. Dra. Mariko Nakano Miyatake ESIME Culhuacan IPN Autenticación de imágenes digitales Dra. Mariko Nakano Miyatake ESIME Culhuacan IPN Importancia Actualmente todas las imágenes son digitales capturadas por cámaras digitales o escáneres. Estas imágenes

Más detalles

Palabras Claves: Compensación de movimiento, estimación de movimiento, segmentación, video, MPEG, Tiempo Real.

Palabras Claves: Compensación de movimiento, estimación de movimiento, segmentación, video, MPEG, Tiempo Real. Estimación y Compensación de Movimientos en Video Codificado Claudia Cecilia Russo 1 - Hugo Ramón 2 LIDI - Laboratorio de Investigación y Desarrollo en Informática Facultad de Informática Universidad Nacional

Más detalles

Análisis de imágenes digitales

Análisis de imágenes digitales Análisis de imágenes digitales MEJORAMIENTO DE LA IMAGEN Procesamiento del histograma DISTRIBUCIÓN DE PÍXELES El histograma de una imagen es un gráfico de las frecuencias relativas de ocurrencia de cada

Más detalles

Práctica 2: DCT, JPEG

Práctica 2: DCT, JPEG Compresión de Imágenes Digitales Departamento de Computación, FCEyN, UBA Práctica 2: DCT, JPEG Nota: los ejercicios marcados con ( ) son para hacer SIN computadora. Los archivos, imágenes y señales necesarias

Más detalles

Visión por Computador: Introducción

Visión por Computador: Introducción Visión por Computador: Introducción Ciencia que desarrolla la base teórica y algorítmica mediante la que se extrae y analiza información útil sobre el mundo/ entorno, a partir de: una imagen un conjunto

Más detalles

* Este trabajo ha sido subvencionado mediante la ayuda PRONTIC 105/88 CODIFICACION ADAPTATIVA DE IMAGENES MEDIANTE LA TRANSFORMADA COSENO DISCRETA*

* Este trabajo ha sido subvencionado mediante la ayuda PRONTIC 105/88 CODIFICACION ADAPTATIVA DE IMAGENES MEDIANTE LA TRANSFORMADA COSENO DISCRETA* CODIFICACION ADAPTATIVA DE IMAGENES MEDIANTE LA TRANSFORMADA COSENO DISCRETA* Luis Torres Urgell Javier Vidal Plana Dept. Teoría de la Señal y Comunicaciones ETSIT- UPC Apdo. 30002 08080 Barcelona 1.-

Más detalles

Uso de la Transformada de Wavelet para la compresión de imágenes Funciones de Variable Compleja

Uso de la Transformada de Wavelet para la compresión de imágenes Funciones de Variable Compleja Uso de la Transformada de Wavelet para la compresión de imágenes Funciones de Variable Compleja Gonzalo Damian Acosta Estudiante de Ingeniería en Sistemas de Computación Universidad Nacional del Sur, Avda.

Más detalles

Sesión 2: TVoIP - Arquitectura, estándares y servicios.

Sesión 2: TVoIP - Arquitectura, estándares y servicios. Sesión 2: TVoIP - Arquitectura, estándares y servicios. Vídeo digital. Estándares. Compresión 1 Señal de vídeo analógica R (rojo) G (verde) B (azul) La imagen capturada se descompone en tres señales que

Más detalles

I. INTRODUCCIÓN. A cada valor de una señal digital se le llama bit y es la unidad mínima de información.

I. INTRODUCCIÓN. A cada valor de una señal digital se le llama bit y es la unidad mínima de información. I. INTRODUCCIÓN 1. SEÑALES Y TIPOS Como vimos en el tema anterior, la electrónica es la rama de la ciencia que se ocupa del estudio de los circuitos y de sus componentes que permiten modificar la corriente

Más detalles

Comunicaciones Digitales

Comunicaciones Digitales Trabajo Práctico Codificación de Fuente Comunicaciones Digitales E.1 Una fuente tiene un alfabeto {a1,a, a3, a4, a5, a6} con sus correspondientes probabilidades {0.1,0.,0.3,0.05,0.15,0.}. Encontrar la

Más detalles

DCT(x[n]) C[u] α(u) x[n] cos (2n 1) π u 2N

DCT(x[n]) C[u] α(u) x[n] cos (2n 1) π u 2N UNIVERSIDAD DE CASTILLA LA MANCHA Escuela Universitaria Politécnica de Cuenca Ingeniería Técnica de Telecomunicación (Especialidad de Sonido e Imagen) Vídeo Digital Examen de Junio de 2005 PRACTICAS: Del

Más detalles

Estructura de Datos. Códigos de Huffman. Primer Semestre, Compresión de Archivos. Compresión de Archivos

Estructura de Datos. Códigos de Huffman. Primer Semestre, Compresión de Archivos. Compresión de Archivos Estructura de Datos Códigos de Huffman Prof.: Mauricio Solar Prof.: Lorna Figueroa Primer Semestre, 2 Los algoritmos estudiados hasta ahora han sido diseñados, en general, para que utilicen el menor tiempo

Más detalles

PCM MODULACION ANALOGA CON PORTADORA DIGITAL

PCM MODULACION ANALOGA CON PORTADORA DIGITAL PCM MODULACION ANALOGA CON PORTADORA DIGITAL o Es la representación de la información analógica en una señal digital o Al proceso de conversión de señales análoga en digitales se le denomina digitalización

Más detalles

Fundamentos de Visión por Computador

Fundamentos de Visión por Computador Fundamentos de Visión por Computador Sistemas Informáticos Avanzados Índice Filtrado en el espacio Filtros lineales Tipos de ruido Filtro media Filtro mediana Filtros gausianos Filtrado en la frecuencia

Más detalles

Punto 3 Servicio de Vídeo. Juan Luis Cano

Punto 3 Servicio de Vídeo. Juan Luis Cano Punto 3 Servicio de Vídeo Juan Luis Cano El podcasting consiste en la distribución de archivos multimedia mediante un sistema de redifusión (RSS) que permita suscribirse y usar un programa que lo descarga

Más detalles

Procesamiento digital de imágenes

Procesamiento digital de imágenes Procesamiento digital de imágenes Querejeta Simbeni, Pedro Estudiante de Ingeniería Electricista Universidad Nacional del Sur, Avda. Alem 1253, B8000CPB Bahía Blanca, Argentina querejetasimbenipedro@gmail.com

Más detalles

Tecnologías de la imagen II

Tecnologías de la imagen II Tecnologías de la imagen II VÍDEO DIGITAL Conceptos iniciales Formatos y compresión de vídeo Eva Sales / Grado BBAA / Curso 2015-16 VÍDEO DIGITAL. Conceptos iniciales. NTSC vs. PAL VÍDEO DIGITAL. Conceptos

Más detalles

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta

Realzado de Imagen. 11 de junio de El histograma de una imagen digital con niveles de gris en la amplitud de [0, L 1], es función discreta Realzado de Imagen 11 de junio de 2001 Una operación clásica en el procesado de imagen es realzar una imagen de entrada de alguna manera para que la imagen de salida sea más fácil de interpretarla. La

Más detalles

FICHEROS Y BASES DE DATOS (E44) 3º INGENIERÍA EN INFORMÁTICA. Tema 4. Técnicas de Dispersión. Definición y Manejo.

FICHEROS Y BASES DE DATOS (E44) 3º INGENIERÍA EN INFORMÁTICA. Tema 4. Técnicas de Dispersión. Definición y Manejo. FICHEROS Y BASES DE DATOS (E44) 3º INGENIERÍA EN INFORMÁTICA Tema 4. Técnicas de Dispersión. Definición y Manejo. 1.- Introducción. 2.- Funciones de Dispersión. 3.- Saturación Progresiva. 4.- Empaquetado

Más detalles

Implementación de un sistema inalámbrico de Audio, bajo un esquema de modulación QPSK/8PSK con una codificación convolucional

Implementación de un sistema inalámbrico de Audio, bajo un esquema de modulación QPSK/8PSK con una codificación convolucional ESCUELA SUPERIOR POLITÉCNICA DEL LITORAL Facultad de Ingeniería en Electricidad y Computación Implementación de un sistema inalámbrico de Audio, bajo un esquema de modulación QPSK/8PSK con una codificación

Más detalles

51 Int. CI.: H04N 7/14 ( ) TRADUCCIÓN DE PATENTE EUROPEA

51 Int. CI.: H04N 7/14 ( ) TRADUCCIÓN DE PATENTE EUROPEA 19 OFICINA ESPAÑOLA DE PATENTES Y MARCAS ESPAÑA 11 Número de publicación: 2 49 747 1 Int. CI.: H04N 7/14 (06.01) 12 TRADUCCIÓN DE PATENTE EUROPEA T3 96 Fecha de presentación y número de la solicitud europea:

Más detalles

Normas ISO de codificación de contenidos audiovisuales. -MPEG 1, MPEG-2, MPEG-4, MPEG 7 y MPEG 21-

Normas ISO de codificación de contenidos audiovisuales. -MPEG 1, MPEG-2, MPEG-4, MPEG 7 y MPEG 21- Normas ISO de codificación de contenidos audiovisuales -MPEG 1, MPEG-2, MPEG-4, MPEG 7 y MPEG 21-1 La familia MPEG MPEG 1 (1992): codificación digital de audio y vídeo hasta 1.5 Mbit/s para almacenamiento

Más detalles

Almacenamiento de imágenes digitales. Primera parte

Almacenamiento de imágenes digitales. Primera parte Almacenamiento de imágenes digitales Primera parte Representación de Imágenes Digitales Representar una imagen de n x n píxeles mediante una matriz requiere: n 2 bits si es binaria n 2 log 2 (L) bits si

Más detalles

(1) Métodos y materiales

(1) Métodos y materiales Desarrollo de un filtro en el dominio de la frecuencia para procesamiento digital de imágenes de huella dactilar basado en la Transformada Rápida de Fourier Modificada. Resumen. El análisis en frecuencia

Más detalles

Acentuado de una imagen en el dominio JPEG

Acentuado de una imagen en el dominio JPEG Acentuado de una imagen en el dominio JPEG Fortonani, Daniela - Peralta, Alejandro - Wilde, Ma. Lucila Facultad de Ingeniería y Ciencias Hídricas Universidad Nacional del Litoral 21 de junio de 2007 1

Más detalles

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2016

Tratamiento probabilístico de la Información. INGENIERÍA DE SISTEMAS Cursada 2016 TEORÍ DE L INFORMCIÓN Tratamiento probabilístico de la Información Compresión de datos INGENIERÍ DE SISTEMS Cursada 06 COMPRESIÓN Y REDUNDNCI Los datos suelen contener información no relevante o redundante

Más detalles

ESOA Sistemas de Transmisión de Datos

ESOA Sistemas de Transmisión de Datos Sistemas de Transmisión de Datos 1 INDICE 1. Introducción 2. Modulación con portadora analógica. 3. Modulación con portadora digital. 4. Recodificadores. 5. Normas de Modems. 2 1. Introducción 1.1 Objetivos.

Más detalles