Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica INGENIERIA DEL VIDEO DIGITAL

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica INGENIERIA DEL VIDEO DIGITAL"

Transcripción

1 Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica IE 0502 Proyecto Eléctrico INGENIERIA DEL VIDEO DIGITAL Por: RAFAEL EDUARDO VALDERRAMA PERDOMO Ciudad Universitaria Rodrigo Facio DICIEMBRE del 2010

2 INGENIERIA DEL VIDEO DIGITAL Por: RAFAEL EDUARDO VALDERRAMA PERDOMO Sometido a la Escuela de Ingeniería Eléctrica de la Facultad de Ingeniería de la Universidad de Costa Rica como requisito parcial para optar por el grado de: BACHILLER EN INGENIERÍA ELÉCTRICA Aprobado por el Tribunal: Lic. Rodrigo Chacón Quesada Profesor Guía Lic. Felipe Córdoba Morales Lector Mag. Alonso González Elizondo Lector ii

3 DEDICATORIA A mis padres y hermano por todo el apoyo incondicional que me han brindado a lo largo de estos años. A mi novia la paciencia y amor que me da y que me ayudan a seguir adelante con mis metas. A mis abuelos, tíos y primos, que a pesar de la distancia, en ellos siempre he encontrado palabras de apoyo que me permitió cumplir con este objetivo. A mis amigos que a lo largo de la carrera hemos compartido buenos y malos momentos. A los profesores que a lo largo de la carrera han me han transmitido sus conocimientos y han ayudado en mi formación como profesional. iii

4 RECONOCIMIENTOS Al Profesor Rodrigo Chacón por sus consejos y colaboración brindada en la elaboración del proyecto. iv

5 ÍNDICE GENERAL ÍNDICE DE FIGURAS... x ÍNDICE DE CUADROS... xii NOMENCLATURA...xiii RESUMEN... xvii CAPÍTULO 1: Introducción Objetivos Objetivo general Objetivos específicos Metodología CAPÍTULO 2: Desarrollo Teórico Multimedia Analógica en Banda Base Principios fundamentales del video analógico Principios fundamentales del audio analógico Servicios auxiliares Second audio program (SAP) Vertical Blanking Interval (VBI) Close caption (CC) Señal de prueba en el intervalo vertical (VITS) Teoría de los Medios Digitales en Banda Base Conceptos fundamentales en la digitalización de señales analógicas Muestreo Cuantización Codificación Características del video Sampling Profundidad de de bits o bit depth Color Space o Espacios de Color Luminancia y crominancia Compensación de movimiento y vectores de movimiento Resolución de pantalla y razón de aspecto Datos Embebidos o Auxiliares (VANC/HANC) Pérdidas en el Video Digital Características del Audio Digital v

6 2.3 Timing SMPTE Timecode Protocolo de tiempo de red o Network Time Protocol (NTP) Compresión de multimedia Introducción a la compresión MPEG Transport Stream MPEG-2 (TS-MPEG2) Compresión de Video MPEG Códec de audio AC MPEG-1 Layer II (MP2) AAC/HE Códec Avanzados de Video AVC (H.264 o MPEG-4 Parte 10) SMPTE VC Interfaces físicas utilizadas Asynchronous Serial Interface (ASI) MPEG-2 TS over IP TS over UDP TS over RTP Metadatos Metadatos en banda PSI/SI (Program Specific Information/Service Information) ATSC A/65: PSIP SCTE-35: Digital program insertion cueing message for cable SCTE-18: Emergency alert messaging for cable SCTE-65: Service information delivered out-of-band for digital cable television Sistemas de video digital Funcionamiento de un sistema de televisión por cable Home Networking o Redes Domesticas MOCA HPNA Seguridad del Contenido Manejo de los Derechos Digitales Accesos Condicionales (CableCARD) Avances Tecnológicos PacketCable Multimedia (PCMM) Switched Digital Video Arquitectura del SDV Video On Demand (VOD) Personal Video Recording (PVR) Interactive Programs Guides (IPG) OCAP vi

7 2.8.7 Network PVR DOCSIS Set-top Gateway (DSG) Principios de red Modelo de referencia OSI Protocolo Internet (IP) Direcciones IP Cabecera IP CAPÍTULO 3: Estándares Estándares básicos referidos a MPEG ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Systems ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Video ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Audio ISO/IEC Information Technology Coding of audio-visual objects Part 10: Advances Video Coding SMPTE SMPTE RP227: VC-1 Bitstream transport encodings SCTE SCTE 142: Transport stream verification SCTE 54: Digital video service multiplex and transport system standard for cable television SCTE 43: Digital video systems characteristics SCTE 127: Carriage of vertical blanking interval (VBI) data in North American digital television bit stream SCTE 157: VC-1 Video system and transport constraints for cable television SCTE 30: Digital program insertion splicing API ATSC A/53: ATSC Digital television standard Part 1: Digital television system Part 2: RF/transmission system characteristics Part 3: Service multiplex and transport subsystem Part 4: MPEG-2 Video system characteristics Part 5: AC-3 Audio System Characteristics Part 6: Enhanced AC-3 Audio System Characteristics A/52: ATSC Audio Compression Standard (AC-3 y E-AC-3) A/72: Video system characteristics Part 1: Video system characteristics of AVC in ATSC Part 2: AVC transport subsystem characteristics A/78: Transport Stream Verification vii

8 3.4.5 A/65: Program and System Information Protocol (PSIP) for Terrestrial Broadcast and Cable DVB ETSI TS : Implementation guidelines of video and audio coding in broadcasting applications based on the MPEG-2 TS ETSI EN : Specification for the carriage of vertical blanking information (VBI) data in DVB bit streams ETSI TR : Measurement guidelines for DVB systems ITU ITU-R BT.601: Parámetros de codificación de televisión digital para estudios con formatos de imagen normal 4:3 y de pantalla ancha 16: ITU-R BT.709: Valores de los parámetros de la norma de HDTV para la producción e intercambio internacional de programas ITU-R BT.500: Metodología para la evaluación subjetiva de la calidad de la imagen de televisión ITU-T J.83: Sistemas digitales multi-programa para servicios de televisión, sonido y datos por distribución de cable CEA CEA-608: Line 21 data services CEA-708: Captions for digital Video AES AES3: Digital Audio Standard AES3id/SMPTE276M: Transmission of AES3 Formatted Data by Unbalanced Coaxial Cable CAPÍTULO 4: Diseño e integración Codificación y multiplexación Multiplexación estadística Digital program insertion (DPI) Codificación de VBR o CBR Close Loop y Open Loop Calidad de video Cabecera y controlador de cabecera de televisión digital Transmisión RF y Modulación QAM Node splits o divisiones de nodos Consideraciones en la ruta de retorno o Return Path Ruta de retorno DOCSIS Ruta de retorno DSG Consideraciones en la ruta de avance o forward path DOCSIS ruta de avance o forward path Ruta de avance DOCSIS Set-top Gateway CAPÍTULO 5: Monitoreo y gestión de rendimiento viii

9 5.1 Practicas de prueba Pruebas de calidad de video Pruebas a guías de programación interactivas (IPG) Pruebas a señales EAS (Emergency Alert System) Practicas de Monitoreo Sistemas de Monitoreo Sistema de soporte de operación u Operations Support System (OSS) Network Management System (NMS) Element Management System (EMS) Interfaces de monitoreo Simple Network Management Protocol (SNMP) Application Programming Interface (API) Extensible Markup Language (XML) Artefactos Comunes MTS 100 MPEG Analyser MSK 200 Digital TS Analyzer SENCORE Digital Program Insertion Monitor Gestión de Rendimiento FCAPS Fault Management Configuration Management Accounting Management Performance Management Security Management CAPÍTULO 6: Conclusiones y recomendaciones Conclusiones Recomendaciones BIBLIOGRAFÍA APÉNDICE A: MODULACION DE AMPLITUD EN CUADRATURA (QAM) APÉNDICE B: REDES HIBRIDAS FRIBRA-COAXIAL (HFC) APÉNDICE C: ALIASING ANEXO 1: Sistemas de Televisión Digital ANEXO 2: Tablas PSI ANEXO 3: Certificación de Digital Video Engineering Professional (DVEP) de la Society of Cable Telecommunications Engineers (SCTE) ix

10 ÍNDICE DE FIGURAS Figura 2.1Onda de sonido [11] Figura 2.2 Proceso de digitalización de una señal [15] Figura 2.3 Barrido Entrelazado [139] Figura 2.4 Barrido Progresivo [19] Figura 2.5 Proceso de cuantización [19] Figura 2.6 Codificación [21] Figura 2.7 Diferencia entre diferentes profundidades de bits [22] Figura 2.8 Diferencia entre RGB y CMYK [24] [25] Figura 2.9 Espacios de color basados en el espectro de luz visible del modelo de color RGB Figura 2.10 Espacio de color YIQ con Y=0.5 [28] Figura 2.11 Espacio de color YUV o YCbCr [29] Figura 2.12 Visualización de un GOP tanto por el usuario como por el orden como se generan los fotogramas [33] Figura 2.13 Ejemplo de macrobloques y los tipos de frame [135] Figura 2.14 Datos Auxiliares (ANC) [1] Figura 2.15 Estratificación de relojes NTP [38] Figura 2.16 Estándares MPEG [40] Figura 2.17 Proceso de generación del Transport Stream [134] Figura 2.18 Empaquetado del flujo elemental [134] Figura 2.19 Formación de los paquetes de transporte [134] Figura 2.20 Sistema de televisión por cable [48] Figura 2.21 CableCARD de Motorola [54] Figura 2.22 Sistema de entrega de televisión por cable sin conmutación digital [58] Figura 2.23Sistema de servicio de cable con SDV [58] Figura 2.24 Sistema SDV [58] Figura 2.25 Sistema VoD [60] Figura 2.26 Red DSG [68] Figura 2.27 Modelo de referencia OSI [5] Figura 2.28 Clases de dirección IP [5] Figura 2.29 Encabezado IP [5] Figura 3.1 Especificación ISO/IEC [100] Figura 3.2 Codificación de audio digital [102] Figura 3.3 Decodificación del audio digital [102] Figura 3.4 Punto de análisis de la norma SCTE 142 [105] Figura 3.5 Vista del sistema de transmisión de una señal de video digital [106] Figura 3.6 Inserción mediante una interfaz API: Un servidor/ Un splicer [110] Figura 3.7 Conexión de varios servidores y splicers usando interfaz API [110] Figura 3.8 Sistema de televisión digital ATSC [114] Figura 3.9 Main Mode de ATSC [114] x

11 Figura 3.10 Data segment sync y data field sync ATSC [114] Figura 3.11 Main Mode 16 VSB [114] Figura 3.12 Ejemplo de AC-3 [115] Figura 3.13 Codificador AC-3 [115] Figura 3.14 Punto de análisis del Flujo de ATSC [118] Figura 3.15 Temporización de la señal digitalizada con relación a la señal analógica según ITU-R BT601 [124] Figura 3.16 Transmisión de Close Caption en la línea 21 [128] Figura 3.18 Inserción de los subtítulos en un flujo DTV [129] Figura 4.1 Sistema básico DPI [74] Figura 4.2 Sistema de codificadores en lazo cerrado [77] Figura 4.3 Cabecera de televisión digital [79] Figura 4.4 Operación del CMTS dentro de la cabecera [78] Figura 4.5 Espectro de frecuencias DOCSIS [85] Figura 4.6 Ruta de avance DOCSIS [85] Figura 5.1 Plataforma OSS [86] Figura 5.2 Red EMS [89] Figura 5.3 MSK 200 [94] Figura 5.4 Analizador del espectro con la imagen para comparación [94] Figura 5.5 SENCORE DPI monitor [95] Figura A.1 Transmisor 8-QAM [6] Figura A.2 Constelaciones 4-QAM, 8-QAM y 16-QAM [126] Figura A.3 Constelaciones 32-QAM, 64-QAM y 256-QAM [126] Figura B.1 Estructura de una red HFC [98] Figura A1.1 Sistemas de DTV en el mundo [141] xi

12 ÍNDICE DE CUADROS Cuadro 2.1 Profundidad de bits (color) [23] Cuadro 2.2 Ejemplos de aplicación de muestreo de señal de audio [35] Cuadro 2.3 Clases de dirección IP [70] Cuadro 3.1 Formatos de entrada de video ATSC [114] Cuadro 3.2 Sistema, imagen y transporte ITU-R BT.709 [125] Cuadro A2.1 Program Association Table (PAT) [47] Cuadro A2.2 Conditional Access Table (CAT) [47] Cuadro A2.3 Program Map Table (PTM) [47] Cuadro A3.1 Digital Multimedia Theory [9] Cuadro A3.2 Digital Multimedia & Systems Standards [9] Cuadro A3.3 Digital Video Systems Design and Integration [9] Cuadro A3.4 Digital Video Systems Test Monitoring and Performance Management [9] 201 Cuadro A3.5 Digital Video System Deployment [9] xii

13 NOMENCLATURA AES Advanced Encryption Standard API Application Programming Interface ASI Asynchronous Serial Interface ATSC Advance Television System Committee AVC Advanced Video Coding BER Bit Error Rate BSS Broadcasting Satellite System CA Conditional Access CATV Cable TV Distribution CBR Constant Bit Rate CC Close Caption CDAD Cable Digital Audio Distribution CEA Consumer Electronics Association CMTS Cable Modem Termination System DAB Digital Audio Broadcasting DAC Digital Addressable Control DCT Discrete Cosine Transform DNCS Digital Network Control System DOCSIS Data Over Cable Service Interface Specification DPI Digital Program Insertion (Inserción digital de programas) DSB Digital Sound Broadcasting DSG DOCSIS Set-top Gateway DTTB Digital Terrestrial Television Broadcasting DTV Digital Television DVB Digital Video Broadcasting DVEP Digital Video Engineering Professional DVD Digital Video Disc xiii

14 DVR Digital Video Recorder EAS Emergency Alert System EC Electronic Cinema EMS Element Management System ENG Electronic News Gathering EPG Electronic Program Guide FDMA Frequency Division Multiple Access FEC Forward Error Correction fps Frames per Second FSS Fixed Satellite Service HDTV High Definition Television HFC Hybrid Fiber-Coaxial HTT Home Television Theater IEC International Electrotechnical Commission IP Protocolo Internet IPv4 Protocolo de Internet versión 4 IPv6 Protocolo de Internet versión 6 IPC Interpersonal Communications IPG Interactive Program Guide ISO Organización Internacional de Estandarización ISM Interactive Storage Media ITU International Telecommunication Union LCD Liquid Crystal Display MAC Multiple Access Control MMM Multimedia Mailing MOS Mean Opinion Score MPEG Motion Pictures Expert Group MSE Mean Square Error NCA News and Current Affairs xiv

15 NDB Networked Databases services NMS Network Management System NTSC National Television System Committee OCAP OpenCable Application Platform OOB Out Of Band OSS Operations Support System PAL Phase Alternate Line (Estándar televisión analógica Europea) PCMM Packet Cable Multimedia PID Program Identification PPV Pay-per-View PSNR Peak Signal-Noise Ratio PSI Program Specific Information PSIP Program and System Information Protocol PSK Phase-shift keying PVR Personal Video Recorder QAM Quadrature Amplitude Modulation QOS Quality of System RF Radio Frequency RVS Remote Video Surveillance SAME Specific Area Message Encoding SCTE Society of Cable Telecommunications Engineers SDTV Standard Definition Television SDV Switched Digital Video SECAM Sequentiel Couleur a Mémoire (Estándar televisión analógica en Francia) SMPTE Society of Motion Picture and Television Engineers SNMP Simple Network Management Protocol SNR Signal-Noise Ratio SSM Serial Storage Media STB Set-Top Box xv

16 STDM Statistical Time-division Multiplexing TCP Transport Control Protocol TDM Time-Division Multiplexing TDMA Time-division Multiple Access TMN Telecommunication Management Network TS Transport Stream UDP User Datagram Protocol VBI Vertical Blanking Interval VBR Variable Bit Rate VHS Video Home System VOD Video On Demand VSB Vestigial-Side Band WMA Windows Media Audio XML Extensible Markup Interface xvi

17 RESUMEN El objetivo principal de este trabajo es presentar una recopilación de información referente a la ingeniería del video digital, abarcando desde su origen hasta la recuperación de la señal en el sistema de recepción del usuario o consumidor. Dicha compilación se llevó a cabo a través de una amplia investigación en fuentes bibliográficas. El alcance del proyecto, abarca la digitalización de la señal analógica (muestreo, cuantización y codificación), compresión y distintas características básicas de la señal digital. Además, debido a que muchos países han adoptado la transmisión digital de video como el estándar de televisión y ya han completado la adaptación al sistema digital, el proyecto se basa en el Transport Stream MPEG-2, el cual es la base y estándar de la televisión digital (DTV. Por sus siglas en inglés). El proceso de multiplexación, modulación y transmisión de este flujo digital es parte primordial en el desarrollo del proyecto. El lector será capaz de entender en qué consiste una transmisión de video digital en especial en compañías de televisión por cable, así como la conexión de internet a través de una red de cable coaxial. xvii

18 CAPÍTULO 1: Introducción El fin primordial del proyecto es generar un documento donde se expongan los principales temas que abarca la ingeniería del video digital. Por lo tanto se tomó la decisión de elaborar un documento que contenga los temas necesarios para obtener el conocimiento de los principales conceptos en lo que se refieren a la ingeniería del video digital. Para cumplir con este objetivo se tomará como base el temario para la certificación de la SCTE (Society of Cable Telecommunications Engineers, por sus siglas en ingles) en Digital Video Engineering Professional (Profesional en ingeniería del video digital) que es un certificado de conocimiento de los diferentes aspectos de ingeniería con referentes a la multimedia digital abarcando video, audio, servicios interactivos y datos asociados [9]. Se definirán cada uno de los conceptos que se investiguen, tales como los conceptos básicos tanto de video y audio analógico, así como la teoría de multimedia digital donde se desarrollaran temas como son el muestreo, cuantización y codificación de señales digitales. Se investigará sobre los conceptos acerca de compresión de la multimedia estudiando de esta forma la compresión de video en formato MPEG (Motion Picture Expert Group), así como diferentes códec de audio y video existentes. Es de suma importancia seguir los estándares internacionales en la ingeniería del video digital, por esto se expondrán los estándares comúnmente usados en las aplicaciones del video digital. Entre estos, están los estándares de MPEG, SMPTE (Society of Motion Picture Telecommunication Engineers), SCTE, ATSC (Advance Television System 18

19 19 Committee), DVB (Digital Video Broadcasting), ITU (International Telecommunication Union), CEA (Consumer Electronics Association) y AES (Advanced Encryption Standard). Conociendo las definiciones y los estándares, se puede continuar con el diseño e integración de los sistemas de video digital, así como la presentación de los diferentes métodos de monitoreo y gestión de rendimiento de los sistemas digitales donde se explicarán los métodos de monitoreo que existen así como las prácticas y equipos que se utilizan para observar el rendimiento de los sistemas de video digital. Al final, obteniendo toda la información anterior se explicara paso a paso lo necesario para poder implementar un sistema de video digital. 1.1 Objetivos Objetivo general Desarrollar los principales temas que abarca la teoría del video digital y las consideraciones más importantes para el diseño, análisis, pruebas, integración e implementación así como la solución de problemas que se puedan presentar en sistemas de video digital Objetivos específicos Analizar los conceptos básicos de la teoría de multimedia digital. Describir la aplicabilidad de los estándares de multimedia digital: MPEG, SMPTE, SCTE, ATSC, DVB, ITU, CEA y AES. Definir los aspectos que se deben tener en cuenta para diseñar e integrar los sistemas de video digital.

20 20 Estudiar los sistemas de monitoreo y gestiones de rendimiento de sistemas de video digital. Analizar los principales conceptos y pasos a seguir relacionados con la implementación de un sistema de video digital. 1.2 Metodología La realización de este proyecto se basó en recolección de información referente al video digital, obtenido mediante investigación en medios tanto bibliográficos como digitales. Siguiendo el temario establecido por la Society of Cable Telecommunication Engineer (SCTE) para obtener el certificado de profesional en ingeniería del video digital, se realiza la correspondiente investigación empezando por libros de texto recomendados por dicha organización, adjuntando información recopilada de los textos utilizados a lo largo de la carrera, referentes a ingeniería en comunicaciones. La investigación digita se basó principalmente en la elaboración del capítulo 2, en la búsqueda de los diferentes conceptos que se utilizan en la transmisión de video digital, tales como la compresión de video y los medios de transporte del mismo. Distintas organizaciones publican sus estándares o normas en forma digital y al acceso del consumidor, lo cual fue de gran ayuda para conseguir entender los alcances de cada una de estas normas expuestas en el proyecto. Por último la SCTE en su página web de la certificación [9], expone ciertos documentos, manuales y textos de los que se tomo referencia.

21 CAPÍTULO 2: Desarrollo Teórico El capitulo se encargará de describir los conceptos básicos de una señal de video digital, además aportando la descripción de diversas tecnologías desarrolladas con el fin de hacer más eficiente la señal y nuevos servicios ofrecidos al consumidor. Proporcionando mayores ventajas como facilidad en el almacenamiento, transmisión e interactividad, el video digital ha desplazado al video analógico como estándar de televisión en distintos países en el mundo como por ejemplo: Estados Unidos, Unión Europea y Japón, además de varios países en vías de realizar totalmente el cambio. La reciente apertura a la fácil adquisición de televisores de nueva gama (LCD, Plasma, etc.) de una mayor proporción de la población ha acelerado el proceso de cambio en estos países lo que ha generado un gran desarrollo para este sistema. 2.1 Multimedia Analógica en Banda Base Para explicar claramente como se produce una señal de video digital, se debe primero introducir la diferencia de una señal analógica con una digital. Para esto se explica brevemente como es el manejo de las señales de video y audio analógico. Cuando se trabaja un medio analógico las señales analógicas de audio y video son enviadas individualmente. Por tal razón es importante recalcar como se generan cada una de estas señales y sus características principales por su importancia en la generación de sus respectivas señales en forma digital. 21

22 Principios fundamentales del video analógico La señal de video se origina a partir de la conversión de variaciones de intensidad de luz por cambios de intensidad eléctrica. Todo esto se produce cuando existen materiales fotosensibles. El proceso fundamental para la transmisión y reproducción de las imágenes en una señal de video analógico es la exploración o barrido de esta señal. Lo anterior consiste en muestrear secuencialmente los elementos de un cuadro o imagen lo cuales son formados por líneas de elementos. La imagen de vídeo se forma partiendo de la reproducción de una serie de imágenes por segundo. Estas imágenes o cuadros también se les conocen como frames. Al reproducir estas imágenes a una frecuencia determinada se da la sensación de movimiento. Para que el movimiento se pueda ser percibido por el observador de forma suave y continua, sin saltos es necesario que los cuadros se proyecten o se transmitan a una velocidad mínima la cual normalmente es de 24 a 30 cuadros por segundo en el cine y 25 a 30 cuadros por segundo en la televisión. La velocidad a través el cual se visualizan las imágenes se denomina framerate, y es equivalente al número total de imágenes (frames) mostradas en un segundo. [10] Cada frame contiene dos tipos de información los cuales se conocen como luminancia y el otro crominancia. El primero de estos es la información recibida de la intensidad luminosa o brillo y la imagen se representa en blanco y negro en todos los tonos mediante la escala de grises. La segunda es la que comprende la información de los canales

23 23 RGB (en la mayoría de los receptores de video analógico), en otras palabras la que recibe la información de los colores, recibiendo la información de los colores primarios. Para poder conseguir la imagen se debe de tener un dispositivo que sea capaz de traducir la energía lumínica en energía eléctrica. Esta conversión se realiza solamente en la luminancia. Para la registrar la información del color se debe descomponer la luz emitida mediante prismas o espejos dicroicos en tres colores primarios como se dijo antes, el rojo, azul y verde. El brillo o energía luminosa de cada color por separado también es convertido a energía eléctrica. Cuando la descomposición de los colores no se realiza, lo que capta el transductor optoelectrónico es una imagen monocromática. Entre las principales deficiencias o desventajas que nos ofrece el video analógico la más notable es la dependencia para ofrecer buena calidad de imagen, debido a que dependerá totalmente de la calidad de la cinta de video y del reproductor. [139] Principios fundamentales del audio analógico Una señal de audio, se produce cuando un generador de sonido (ya sea un instrumento musical o algún medio que realice una vibración mecánica) entra en vibración. Esta vibración es transmitida a las partículas de aire adyacentes, a la misma a la vez qué está la transmite a las partículas adyacentes. Estas partículas no se desplazan con la perturbación sino que oscila en el aire dando origen a lo que se conoce como una onda sonora. Normalmente, la magnitud del campo sonoro creado por las partículas se expresa cuantitativamente mediante la presión sonora que ejerce este campo. [132]

24 24 Esta señal es acotada en un rango de frecuencias audibles por el ser humano y la cual es lo que se envía como la señal de audio analógico variando entre los 20 Hz y 20 KHz. Aparte, la amplitud de la onda representa el volumen, que se determina por la potencia de la fuente de sonido [11]. Lo anterior se representa mejor en la en la figura Servicios auxiliares Figura 2.1Onda de sonido [11] En el ámbito de la televisión analógica, las compañías de televisión y distintas empresas han desarrollado diferentes servicios que son transmitidos en conjunto con la señal de video analógico, esto con el fin de brindar una ayuda en diferentes campos de acción como es el caso de Close Caption que ayuda a las personas con problemas auditivos. Este apartado explicará el uso de tres de estos servicios adjuntados a la señal analógica de video Second audio program (SAP) El Programa de audio secundario (SAP), es un canal auxiliar de audio para televisión analógica, que puede ser transmitida tanto por radio difusión como por aire o televisión por cable y es parte del estándar MTS (multi-channel television sound) que fue establecido por la National Television System Committee (NTSC) en Esta señal viaja

25 25 en conjunto con la señal del canal de televisión y su objetivo principal es otorgar una opción más de audio para el televidente, como por ejemplo, el audio original de una película o la cobertura de un evento sin los comentarios de los presentadores. [12] Vertical Blanking Interval (VBI) El intervalo de borrado vertical (VBI), también conocido como intervalo vertical o VBLANK, es la diferencia temporal que existe entre la última línea de un frame o cuadro y el comienzo del siguiente. Mientras se da el VBI los datos que ingresan no son desplegados en pantalla y por tal razón comúnmente es utilizado para la transmisión de datos como teletext, subtítulos y códigos de tiempos. Originalmente el VBI se necesitó debido a la inercia inductiva de las bobinas magnéticas que desvían el haz de electrones en la posición vertical de un CRT 1 ; debido a esto el campo magnético y la posición de preparación no podía cambiar al mismo tiempo. Si bien los equipos modernos no necesitan largos tiempos de borrado, se deben diseñar para que puedan mantener el estándar de emisión con los equipos antiguos. [4] Close caption (CC) Los subtítulos ocultos o close caption (CC) es un término utilizado para sistemas desarrollados con el fin de desplegar texto en una pantalla de televisión o en una pantalla de video con el objetivo de proveer información adicional del audio del programa transmitido. Se les llama ocultos porque están encriptados en la señal de televisión y no pueden ser 1 CRT: tubo de rayos catódicos es un tubo de vacio con un cañón de electrones y un fluorescente de la pantalla, el cual sirve para crear imágenes en forma de luz emitida.

26 26 utilizados sin un decodificador. Esta tecnología se utiliza desde 1980 cuando la NCI 2 (National Captioning Institute) creó los primeros subtítulos ocultos para un programa pregrabado. Al pasar los años, esta tecnología se propago sobre los países Norteamericanos, Europa, Argentina y Chile; contrario de los demás países Latinoamericanos donde su uso ha sido menor. Los CC se definen como el texto que aparece en lo general en la parte inferior de la pantalla y cuyo contenido expresa en caracteres lo que se está emitiendo en ese momento a través de la señal de audio. Además, es un servicio opcional, esto quiere decir que será el usuario el que elige si los desea utilizar o no. Existen dos formas de transmitir estos subtítulos ocultos: Close Caption en directo Close Caption pregrabado. Para el subtitulado oculto de los programas en directo se utiliza un sistema similar al de la transcripción estenográfica, la persona entrenada para realizar este trabajo escucha los diálogos y sonidos del programa y los transcribe a la maquina Steno, la cual está conectada a un equipo con el programa para subtitular. El texto es transmitido casi al mismo tiempo que el audio. Generalmente se produce un tiempo de retardo entre 2 o 3 segundos. 2 NCI: La National Captioning Institute (NCI) es una institución sin fines de lucro la cual provee los subtítulos ocultos para televisión y películas.

27 27 Para los subtítulos ocultos pregrabados, como lo son los de películas o documentales, se utiliza un sistema de cómputo que hace una transcripción de mejor calidad. [13] Señal de prueba en el intervalo vertical (VITS) Las señales de prueba en el intervalo vertical son señales que se insertan en una línea concreta en el intervalo vertical de la señal de video, con la finalidad de poder realizar medidas y ajustes de la cadena de transmisión sin alterar las emisiones de ondas de televisión. Entre estas señales se encuentran las que determinan la calidad de la señal de televisión. Algunas de estas señales son específicas para cada país o emisora. Existen 4 VITS utilizadas internacionalmente. Se insertan en las líneas 17 (Para medir la ganancia de la luminancia) y 18 (comportamiento de la frecuencia) del primer campo 3 de la señal de video y en la 330 (mide la diafonía luminancia crominancia y la ganancia diferencial) y 331 (fase diferencial) del segundo campo. Por otra parte, las líneas del 16 al 20 en el primer campo y de la 329 a la 333 del segundo están estipuladas como señales de identificación, control y test. [4] 2.2 Teoría de los Medios Digitales en Banda Base Este apartado tiene como objetivo principal introducir los conceptos básicos en el proceso de conversión de señales analógicas a digitales así como introducir el definir el audio y video digital. 3 Campo de la señal de video, se refiere al campo par o impar de un cuadro de una imagen.

28 Conceptos fundamentales en la digitalización de señales analógicas La digitalización es el proceso mediante el cual una señal analógica se convierte en una señal de impulsos eléctricos equivalentes a bits. Este proceso está compuesto por el muestreo, cuantización y la codificación de la señal. En la actualidad, las señales digitales ofrecen mayores ventajas que una señal analógica en lo que se refiere a almacenamiento y transmisión de información. Algunas de estas ventajas son las siguientes: - Si se presentan perturbaciones o atenuaciones leves, la señal puede ser reconstruida y amplificada mediante un sistema especial de regeneración de señales. - Sistemas de detección y corrección de errores. - Facilidad para el procesamiento. - Multi-generación, que permite que el contenido sea copiado sin que la calidad de este se vea afectada. - Técnicas de compresión de datos sin pérdida de información. El proceso de digitalización se resume en la figura 2.2 Figura 2.2 Proceso de digitalización de una señal [15]

29 29 Los apartados siguientes describen cada una de estas etapas mostradas en la figura 2.2. [14] Muestreo Consiste en tomar muestras periódicas de la amplitud de la señal analógica y donde el lapso entre muestras es constante. La velocidad con que se toma cada muestra por segundo se le conoce frecuencia de muestreo. [14][16] En telecomunicaciones se aplica el teorema de Nyquist, con el objetivo principal de poder reconstruir correctamente una señal periódica. El teorema especifica que dicha señal periódica puede ser reconstruida en su totalidad si su frecuencia de muestreo es el doble del ancho de banda de la señal original. [18] Un ejemplo ilustrativo del uso del teorema de Nyquist en la digitalización de una señal analógica es la grabación de audio digital donde se busca un audio de buena calidad. Se conoce que el oído humano puede percibir con gran claridad sonidos hasta 20 KHz, por tal razón se puede utilizar una frecuencia de muestre que ronde los 40 KHz y con esto podemos según Nyquist se asegura una regeneración completa de la señal y una grabación de calidad. [18] En video, existen dos tipos de recorrer o muestrear la imagen: - Barrido Entrelazado - Barrido Progresivo El barrido entrelazado es utilizado en mayor parte para la transmisión de video analógico para evitar el parpadeo que se produce en la imagen de televisión. Consiste en

30 30 analizar cada frame como dos subframes iguales denominados campos o fields de tal forma que las líneas resultantes estén superpuestas parcialmente una de las otras. Uno campo contiene las líneas pares, y el otro las impares, al comienzo de cada uno de ellos se sitúa el sincronismo vertical o VSYNC. El barrido de la imagen se realiza como lo muestra la figura 2.3. a) b) Figura 2.3 Barrido Entrelazado [139] El barrido empieza con la línea AB [figura 2.3(a)], a una velocidad relativamente lenta. En el retorno desde el punto B a C el barrido no registra ninguna información. En C se inicia el barrido hasta D y de igual manera de D hasta E. En el punto E sin registrar información se inicia el retorno hasta el punto F, donde empezara el barrido del siguiente campo [Figura 2.3 (b)], que se realizara de forma similar al anterior. Una de sus ventajas principales es el poco ancho de banda que necesita para ser implementado, esto debido a que se pueden enviar 50 o 60 campos/s, esto quiere decir 25 o 30 cuadros/s facilitando la compresión, sin embargo se reduce la resolución vertical. [139] El barrido progresivo consiste en un muestreo secuencial de línea por línea. En la figura 2.4 se muestra cómo se realiza el muestreo progresivo.

31 31 Figura 2.4 Barrido Progresivo [19] Este sistema de barrido mejora entre otras cosas la baja resolución que da el entrelazado. Es ampliamente utilizado en sistemas de televisión digital y se realiza de la misma forma como se lee un libro, de arriba abajo y de izquierda a derecha tal como lo muestra la figura 2.4. Algunas características de esta forma de muestreo son: menor tasa de bits para una buena calidad de imagen, compresión más eficiente, mayores facilidades para reducir el ruido, compatibilidad con las pantallas modernas, compatibilidad con la mayoría de formatos de video. Mejores resultados mejores a la hora de convertir a una resolución mayor (Por ejemplo pasar de 480p a 1080p), debido a que el proceso de des entrelazado es omitido. Por otro lado entre sus desventajas, se encuentra que a comparación del barrido entrelazado, en una misma resolución esta necesitara mayor ancho de banda, además, limita el barrido a 30 o 25 cuadros/s. [139] Cuantización Este es el segundo paso para la digitalización de una señal analógica, y es el proceso mediante el cual se realiza la conversión de una sucesión de muestras de amplitud de la señal, en una sucesión de valores discretos preestablecidos según la aplicación y el

32 32 receptor. En este momento la señal analógica se convierte en una señal digital (debido a que los valores fijados son finitos) sin embargo, aun no se ha representado en código binario. Al medir la tensión eléctrica de la muestra tomada, se le atribuye a esta un valor discreto de amplitud que es dado dependiendo de los niveles previamente fijados. Si el nivel de tensión obtenido en la muestra no coincide exactamente con alguno de los niveles discretos disponibles, este valor se redondea al número menor más cercano de los niveles discretos. Estos niveles se eligen en función de la resolución que requiera el código empleado en la codificación. [16] (a) (b) (c) Figura 2.5 Proceso de cuantización [19] La figura 2.5 nos muestra el proceso de cuantización, en esta se observa el muestreo realizado a la señal analógica [Figura 2.5 (a)], luego esta señal es cuantizada en tiempo continuo pero con valores discretos [Figura 2.5 (b)] y por último se da como resultado una señal digital (sin traducción a código binario) dada en tiempo discreto y valores discretos [Figura 2.5 (c)]. [19] Al realizar la cuantización de la señal, hay q saber que la señal que resulta no es exactamente igual a la señal analógica de entrada. Esta diferencia entre las señales se conoce como el error de cuantización o ruido de cuantización. Si el ruido de cuantización es

33 33 inferior al ruido con el que se trató a la señal original (ninguna señal es limpia o sin ruido), el ruido de cuantización no tendrá mayores consecuencias en la señal. [16][20][21] Codificación Con la señal debidamente cuantizada, solo faltaría la traducción o conversión de los valores discretos de la señal cuantizada en valores del sistema binario (0 y 1) mediante códigos ya establecidos. Se tendrá un número determinado de bits dependiendo de los niveles a cuantizar. Esto significa que si M son los niveles discretos y n los números de bits por muestra, se tiene que, n M 2 (2.1) En la figura 2.6 se muestra un ejemplo de codificación de los niveles discretos. En este caso tenemos 6 niveles discretos (M=6), entonces se necesitarían 3 bits para representar estos 6 niveles (2 3 =8). Figura 2.6 Codificación [21] Cabe destacar que al realizar una codificación como la de este ejemplo, se está desaprovechando la posibilidad de codificar dos niveles más debido a que con 3 bits por nivel solo estamos codificando 6 de los 8 niveles posibles.

34 34 El proceso de codificación se debe realizar tomando en cuenta cual va a ser su aplicación y futura decodificación. Por esta razón se usa un códec (que viene de codificación/decodificación). Existen ciertos parámetros que definen a un códec, estos se describen a continuación: - Número de canales: es el tipo de sonido con el que se va a tratar la señal: monoaural, binaural (estéreo) o multicanal. Es muy habitual en los códec de música, video y cine. - Frecuencia de muestreo: es la misma frecuencia usada en la etapa de muestreo. - Resolución (Numero de bits): Determina la precisión con la que se reproduce la señal original. Se suelen usar 8, 16, 24 bits por muestra. A mayor numero de bits, mayor es la precisión. - Bit Rate: Velocidad de transferencia de datos. Es el número de bits por segundos que salen del codificador. Es un parámetro importante en la determinación de la calidad de la señal. En el proceso de codificación se busca disminuir al máximo posible este parámetro. Su unidad son los [bits/s] o [bps]. [21] - Pérdida: Algunos códec eliminan información al hacer la compresión, por lo que la señal decodificada no resulta exactamente igual a la original.

35 Características del video El apartado anterior, ofrece una detallada descripción de cómo se digitaliza una señal analógica. El próximo apartado por otra parte, se enfoca principalmente en describir las características básicas de la señal de video digital Sampling Profundidad de de bits o bit depth La profundidad de bits especifica la cantidad de información que está disponible para cada pixel 4 de una imagen y asignado durante el proceso de digitalización. Cuantos más bits de información hay, mas colores disponibles y por ende mayor precisión y mejor información transmitida. Esta escala va dada por la fórmula 2.2, colores 2 profundida d (2.2) Un ejemplo claro de esto es que una imagen con un bit de profundidad tiene solo dos valores posibles (negro o blanco). Una con profundidad de 8 bits da 256 valores posibles. Debido a que no hay colores (tomando en cuenta por ejemplo que no hay aplicado un modelo de colores RGB), estos 256 colores son tonos que dan una imagen en escala de grises. Como el modelo de color más utilizado o en el cual mas se basan los sistemas de televisión digital es el modelo de color RGB, este se compone de tres colores principales, la fórmula para la cantidad de colores viene dada en la ecuación 2.3 Cantidad 2 profundida d profundida d profundidad _ de _ coloresrgb 2 x2 x (2.3)

36 36 Por tal razón es que si se trabaja un sistema de 8 bits de profundidad en un modelo de color RGB podemos obtener la cantidad aproximada de 16.7 millones de colores. La profundidad de 32 bits es usado por el espacio de color CMYK. La tabla 2.1 resume la cantidad de colores en un sistema RGB con diferentes bits de profundidad. [22][23] Cuadro 2.1 Profundidad de bits (color) [23] Profundidad de bits Calidad Cantidad de Colores Rango dinámico Espacio de color o tipos de color usados 8 bits Telefonía db VGA de baja resolución 16 bits CD db Color para algunas Macintoshes 24 bits DVD db RGB 32 bits Optima db CMYK La imagen 2.8 da un ejemplo claro de lo que es la profundidad de bit al observar la diferencia entre las distintas imágenes. Figura 2.7 Diferencia entre diferentes profundidades de bits [22] Color Space o Espacios de Color Los espacios de color son modelos matemáticos abstractos que representan colores en listas ordenadas de números las cuales típicamente constan de 3 o 4 valores conocidos como componentes de color. 4 Pixel: menor unidad de color que forma una imagen digital.

37 37 Los modelos de color describen matemáticamente los colores; la diferencia con un espacio de color es que no tiene una función asociada de mapeo de color. Existen distintos modelos de color como lo son RGB (utiliza los colores primarios aditivos Rojo, Azul y Verde) y CMYK (utiliza los colores primarios de modo sustractivo: Cian, Magenta, Amarillo y negro) los cuales se muestran en la figura 2.8. Al agregar una función de mapeo entre un modelo de color y un espacio de color específico se crea una especie de huella en el modelo de color que ahora es conocido como modelo de color de referencia. Figura 2.8 Diferencia entre RGB y CMYK [24] [25] Un ejemplo de esto son los espacios de color Paper Matt 2200, srgb, Adobe RGB y ProPhoto RBG, creados a partir del modelo de referencia RGB el cual es utilizado ampliamente en video digital. Estos espacios de color se muestran en la figura 2.9. [26][133] Figura 2.9 Espacios de color basados en el espectro de luz visible del modelo de color RGB

38 38 En el campo de la televisión, el modelo de color RGB predomina, aunque no sea en esencia. Esto se debe a que los espacios de color utilizados no son un derivado de este sino una transformación de las imágenes que utilizan este modelo de color. Cada estándar de televisión (NTSC, SECAM, PAL y DTV) utiliza un espacio de color diferente, pero con la singularidad de ser transformación de RGB. Algunos espacios de color existentes tanto en televisión analógica como en televisión digital son: - YIQ: Espacio de color utilizado por la NTSC en Estados Unidos y por Japón. La Y representa la luminancia, la I significa en fase (In-phase) y Q cuadratura (quadrature en ingles), representando el tipo de modulación utilizada (QAM). Además, se establece que los parámetros I y Q son los de la crominancia de la señal. Aprovecha la respuesta humana hacia el color aludiendo que el ojo es más sensible a los cambios de color de naranja azul (I) que a los cambios de color de purpura a verde (Q), por tal razón Q necesita menos ancho de banda que I. NTSC limita el ancho de banda de I a 1,3 MHz y a Q de 0,4 MHz. Tomando en cuenta que el sistema trabaja a 4,2 MHz, las señales I y Q se intercalan dentro de la señal Y de 4 MHz para su transmisión. La figura 2.10 muestra un ejemplo del espacio de color YIQ con un valor de Y=0.5. [27][28]

39 39 Figura 2.10 Espacio de color YIQ con Y=0.5 [28] - YUV: Espacio de color utilizado en mayor parte por PAL. A diferencia de NTSC, el ancho de banda de las componentes de crominancia es menor y así logra ocultar mejor a la percepción humana los errores de transmisión o errores de compresión. Se define como una componte de luminancia Y, con dos componentes de crominancia U y V. Como se ve en la figura 2.11 el espacio de color YUV se asemeja al sistemas de coordenadas de YIQ solo que los ejes de YIQ se desfasan 33 grados en comparación con U y V. Otra gran diferencia en contraste con YIQ es el manejo del ancho de banda ya que aunque YUV colabora más en la reducción de este, tiene el problema que cada uno de estas señales (U y V) deben tener el mismo ancho de banda. [29][30] Figura 2.11 Espacio de color YUV o YCbCr [29]

40 40 - YCbCr: Este espacio de color viene a ser el espacio de color YUV con aplicación digital. Y es la luminancia, Cb (U) y Cr (V) son los componentes cromáticos del rojo y el azul. [30] Luminancia y crominancia La luminancia y la crominancia son los componentes principales de una señal de video. La luminancia transporta la información del brillo de la señal de video, por lo tanto a mayor luminancia mayor será el brillo. Se identifica con la letra Y. [32] En un espacio de color YUV, la luminancia se crea a partir de la señal RGB multiplicando las matrices de pixeles que corresponden a los colores por un factor determinado que se puede observar en la ecuación 2.4 [29] Y 0.3R 0.59G 0. 11B (2.4) Por otra parte la crominancia es la componente de la señal de video que transmite la información del color. El color tiene dos características principales: la saturación (cantidad de color) y el tinte (indicación de que color es). Dependiendo del modelo de color (RGB, CMYK, HSB, etc.) en el que se trabaje, las señales de crominancia se combinaran con la luminancia (Y). [31] Ambas señales se envían de forma individual en una transmisión analógica, combinándose al final y así se obtiene la imagen con color. Esto lleva complicaciones debido a las diferencias de amplitud entre las señales (incluyendo la descomposición de las señales de tinte y saturación en la señal de crominancia), y el retardo de cada una de estas.

41 41 En un sistema de video digital o video de alta definición las señales de luminancia y crominancia se trabajan de la misma forma que antes se explico (individualmente), pero cuando estas señales son debidamente digitalizadas, son multiplexadas junto con las demás señal que forman el flujo de video digital Compensación de movimiento y vectores de movimiento La compensación de movimiento es una técnica usada en la codificación de video, para aumentar la compresión de este. El objetivo es buscar la redundancia presente en frames consecutivos dentro de una secuencia de imágenes. El proceso se basa en realizar una división de la señal de video en GOP s (grupos de imágenes o Groups of Pictures en inglés), normalmente conformados por 12 frames cada uno (como se observa en la figura 2.12). Cada frame se clasifica como I (intra-codificado), P (Predictivo) o B (Predictivo bidireccional). Siempre el primer frame de un GOP es un frame I, el cual es un frame de referencia al cual solo se podrá realizarle compresión espacial. Para construir un frame P, el frame de referencia se reconstruye como si fuera una imagen de televisión, hecho esto, el frame a comprimir es dividido en macro-bloques de tamaños de 16 x 16 pixeles. Para cada uno de estos macro-bloques el frame de referencia se compara con el macro-bloque de 16x16 buscando algún punto semejante o comparable. El offset se codifica como el vector de movimiento. El motion vector es un puntero que apunta desde el centro del macro bloque al centro de la región coincidente. Este motion vector es apuntado al centro de ese macro bloque coincidente. Seguidamente el error entre los

42 42 coeficientes de la transformada discreta del coseno (DCT, del inglés) 5 del macro bloque y los de la región son codificados tomando como referencia el bloque I o P anterior. De igual manera se realiza para un frame tipo B, solo que la particularidad de este es que también puede realizar la codificación con frames posteriores. Figura 2.12 Visualización de un GOP tanto por el usuario como por el orden como se generan los fotogramas [33] La Figura 2.13 nos muestra un enfoque más detallado de lo que realiza la técnica de compensación de movimiento. Enseñando como un frame tipo I solo es tomado como referencia para el frame tipo P, mientras que el tipo B puede tomar como referencia tanto el I (pasado) o el P (futuro). [136][33] Figura 2.13 Ejemplo de macrobloques y los tipos de frame [135] Cabe destacar que cuando se realiza la predicción, o se confirma la concordancia entre los macro bloques los vectores de movimiento son actualizados Resolución de pantalla y razón de aspecto 5 Discrete Cosine Transform 5 (DCT). Es una transformada relacionada a la transformada de Fourier muy

43 La resolución de pantalla es el número de pixeles en cada una de las dimensiones (horizontal x vertical) en que se pueden representar. 43 Entre las resoluciones estándar, tenemos que la NTSC usa resoluciones 720/704/640x520i a 60 Hz y el sistema PAL usa a 768/720x576i a 50Hz. La televisión de alta definición es capaz de obtener una resolución de 1920x1080p a 60Hz (1920 pixeles por línea con 1080 líneas de barrido progresivo a 60 fotogramas por segundo). [3][4] La razón de aspecto es la proporción entre el ancho y alto de una imagen. Normalmente se expresa como (X: Y). La relación de aspecto de una pantalla de televisión tradicional es de 4:3, esto quiere decir que el pixel tendrá 4 pulgadas de ancho y 3 de alto o también 4 centímetros de ancho y 3 centímetros de alto, también se puede expresar como 1,33:1. Si es una pantalla plana o televisores de alta definición normalmente tendrá una relación de aspecto de 16:9 siendo este el estándar para la señal de televisión de alta definición (HDTV). Esta razón de aspecto es la utilizada en DVD y por tal razón en una pantalla de televisión normal deja dos franjas negras en la parte superior e inferior. Otras relaciones de aspecto usadas normalmente son 1.85:1 (cine), 4:3 y 3:2 (fotografía), 4:3 y 5:4 (monitores tradicionales) y 16:10 (algunas laptops). [3][4][34] Datos Embebidos o Auxiliares (VANC/HANC) Es la información que no es imagen activa y se adicionan a la SDI (Serial Digital Interface). Puede ser información del audio digital, Close caption, o datos teletext. similar a la transformada discreta de Fourier.

44 44 Los paquetes de datos auxiliares son incrustados durante los pulsos de sincronización en una señal de video. Pueden ubicarse en cualquier lugar del flujo de datos, excepto en líneas identificadas como switch points, áreas de imagen activa y no pueden cruzar las señales TRS (Timing Reference Signals). Se manejan como dos tipos: HANC (Horizontal Ancillary Data) y VANC (Vertical Ancillary Data), los cuales dependen del lugar donde se encuentren. Los primeros como su nombre lo indican son los que se encuentran en el intervalo horizontal de supresión o borrado de la señal (HBI). Comúnmente son utilizados para datos con de más ancho de banda además de cosas que necesiten ser sincronizadas en una línea particular. La información embebida del audio es comúnmente enviada como HANC. En contra parte se encuentra el VANC, ubicados en el intervalo de borrado vertical (VBI) y es comúnmente usado para datos de bajo ancho de banda o datos que deben ser actualizadas con anticipación. Los subtítulos ocultos (CC) son enviados como VANC. La figura 2.13 muestra gráficamente como se introducen o añaden los datos auxiliares. La figura 2.13 (a) presenta el pulso de sincronización horizontal, siendo este el intervalo de tiempo en donde los datos HANC son incrustados en la señal justo después de que se añaden los datos TRS. De igual forma la figura 2.13 (b) presenta la señal de sincronización vertical mostrando dos pulsos seguidos donde se añaden las señales de tiempo y los datos VANC. Por último se presenta una imagen resumen de lo que es una señal de video compuesto mostrando con detalles como donde se incrustan estas señales en un sistema de video.

45 45 a) b) c) Figura 2.14 Datos Auxiliares (ANC) [1] Pérdidas en el Video Digital Como se ha venido hablando en las secciones anteriores, el medio digital es una gran herramienta para el manejo más apropiado y eficaz de señales de video. No obstante, la señal de video digital requiere mucho espacio de disco para su almacenamiento, es por esta razón que se requiere efectuar alguna función de compresión que no afecte la calidad del video notoriamente. Esta función se explicará con mayor claridad en la sección 2.4. La compresión de video involucra una pérdida de datos para reducir el tamaño del video, con el objetivo principal de obtener un video de una calidad similar a la del video original, dependiendo totalmente de la codificación que se realice. Estas pérdidas de datos se llevan a cabo con base a distintos estudios sobre la percepción de imágenes y colores del ojo humano. Quiere decir que el proceso de compresión elimina datos que son redundantes,

46 o que conllevan tonos o imágenes que el ojo humano no percibe. Por ejemplo existen millones de colores pero el ojo humano solo percibe aproximadamente 1024 tonos de color. La compresión se basa principalmente en dos tipos de redundancia: - Redundancia Espacial: En cada frame se busca los grupos de pixeles con características similares con el fin de evitar duplicaciones. - Redundancia Temporal: Algunos frames continuos poseen información redundante. (ver sección ) Características del Audio Digital De la misma manera que el video digital, el audio digital presenta diversas ventajas en cuanto almacenamiento, transmisión, corrección de errores y manipulación de una señal de audio. Al igual que una señal de video, la señal de audio es digitalizada siendo muestreada, cuantizada y codificada. El muestreo realizado, se basa en el teorema de Nyquist introducido anteriormente, basándose en el ancho de banda audible por el oído humano que se encuentra en el intervalo de 20Hz a 20KHz. Por esta razón, la frecuencia de muestreo de una señal de audio siempre será aproximadamente 40kHz para así cumplir con el teorema de Nyquist (ver sección 2.2.1), aunque este dato dependerá de la aplicación (CD, radio, etc.). La tabla 2.2 muestra la frecuencia de muestreo utilizadas en algunas aplicaciones Cuadro 2.2 Ejemplos de aplicación de muestreo de señal de audio [35] FRECUENCIA DE MUESTREO (KHz) APLICACION 44.1 CD 32 Radio FM 22 Radio AM 8 Teléfono 46

47 47 Al igual que en el video, el audio tendrá diferentes profundidad de bits. Como en el video, mientras mayor sea este parámetro, mejor será la calidad del sonido. Un ejemplo de esto es el de los CD los cuales trabajan con 16 bits de profundidad. A la hora de realizar la cuantización, se encuentra que el formato más utilizado en audio digital es el PCM (Pulse Code Modulation), aunque también existen otros tipos de formato como MIDI, MP3, ACC u OGG. [35][15][17] Uno de los principales problemas que se presentan en la conversión de audio analógico a digital es la aparición del fenómeno conocido como aliasing (ver Apéndice C). 2.3 Timing Normalmente en un sistema de video digital, existen distintos dispositivos que operaran a diferentes frecuencias de reloj. La sincronización de las transferencias de datos es fundamental cuando se trata de un sistema de video digital, debido a que una trama de video debe ser enviada en el tiempo correspondiente para su correcta visualización. Este apartado menciona dos mecanismos para lograr lo anteriormente descrito. El primero SMPTE Timecode es una normativa para las tramas de video y el segundo el Network Time Protocol (NTP) el cual es un protocolo de sincronización de relojes SMPTE Timecode Los SMPTE timecode son un conjunto de normas que se crearon con el fin de lograr etiquetar cada una de las tramas de video o películas con un código de tiempo establecido por la SMPTE.

48 48 Los timecode son añadidos a la película, material de video o audio y hasta se ha usado para la sincronización de música. Ellos dan una referencia de tiempo para la edición, sincronización e identificación de las tramas. La utilización de estos timecode hace posible la edición en los videotapes modernos y además fue uno de las principales colaboraciones para la creación de la edición no lineal 6. La lectura del timecode despliega el tiempo como el cual contienen en datos en BCD los cuales representan hora:minuto:segundo:frames:subframes (Los subframes solo son utilizados si se utiliza barrido entrelazado). [36] Protocolo de tiempo de red o Network Time Protocol (NTP) El protocolo NTP, diseñado por Dave Mills de la Universidad de Delaware, es un protocolo aplicado en internet con el objetivo de sincronizar los relojes de los sistemas informáticos en el ruteo de paquetes en redes con latencia 7 variable. Su principal característica y ventaja con respecto a otros métodos de sincronización es la gran robustez a los efectos de la latencia y por ende a la seguridad que proporciona. Utiliza el protocolo UDP (User Datagram Protocol, por sus siglas en ingles) como capa de transporte. El protocolo NTP utiliza el algoritmo Marzullo 8 con la escala de tiempos UTC 9, e incluye un soporte para características como los segundos intercalares 10. La versión 4 de 6 Edición no lineal, es la edición de video utilizada por la tecnología digital y es en la cual podemos editar el video colocando cada frame del video en el lugar que deseemos. 7 Latencia, En una red de datos es la suma de los retardos temporales de la red. 8 Algoritmo Marzullo, Selecciona fuentes para una aproximación más exacta del tiempo en un conjunto de señales con ruido. 9 Universal Time Coordinated, UTC. Estándar para poder calcular el tiempo de las distintas zonas del mundo. 10 Segundo intercalar es un ajuste de un segundo para mantener los estándares de emisión de tiempo cercanos al tiempo solar medio.

49 49 este protocolo (NTPv4) puede mantenerse sincronizado con una diferencia máxima de 10 ms a través de internet, y puede acercarse hasta 200µs o inclusive mas si es una red LAN en condiciones ideales. Para conseguir la sincronización de los relojes, NTP utiliza un sistema de estratos de reloj que van desde el estrato 0 al estrato 3. Este sistema de estratificación funciona de la siguiente forma: Los dispositivos estrato 0, normalmente no están conectados a la red, sino mas bien están conectados en un nivel local a una computadora (ejemplo relojes atómicos y de GPS). Los estrato 1, se sincronizan con estos relojes de estrato 0. Son conocidos como servidores de tiempo, funcionando de servidores a los de estrato 2, los cuales hacen sus peticiones NTP a estos. Los sistemas de estrato 2 derivan su tiempo de uno o más de los sistemas de estrato 1, y a la vez ellos servirán como servidores de peticiones NTP para computadores estrato 3. (Recalcar además que esto es diferente a los estratos de reloj de los sistemas de telecomunicaciones). La Figura 2.14 nos da una vista de este sistema de estratos. Figura 2.15 Estratificación de relojes NTP [38]

50 Compresión de multimedia Una de las principales ventajas que presenta el manejo de una señal digital, es su posible compresión. El video se ve muy beneficiado por este aspecto, dado que un video puede llegar a ser muy grande o pesado para un sistema de almacenamiento, es por lo tanto que la posible compresión de éste disminuye considerablemente la cantidad de datos y hacerlo más flexible para ser almacenado por ejemplo en un DVD o un disco duro. Obviamente el termino compresión requiere de un enfoque en perdida de datos, la cual se realiza de una forma que el video no se vea afectado en gran parte para la percepción de este por el ojo humano. Cada formato de compresión tendrá su forma y rendimiento especifico y será el usuario el encargado de utilizar el método de compresión que se ajuste a las necesidades. Cuando se habla de televisión, esta siempre se ha estandarizado por el formato MPEG. La televisión con señal SD o HD es estandarizada en formato MPEG-2 como se explicara en las siguientes secciones Introducción a la compresión MPEG MPEG son las siglas de Moving Pictures Experts Group (Grupo de Expertos en Imágenes Móviles) el cual es un grupo perteneciente a la ISO/IEC, encargado de desarrollar estándares de codificación de audio y video. Generalmente los videos generados mediante este formato son de una mejor calidad comparados con los desarrollados para Windows, Quicktime o Indeo.

51 51 Los algoritmos del MPEG comprimen la información en pequeños paquetes que pueden ser transmitidos fácilmente y después ser descomprimidos. El MPEG alcanza su más alta tasa de compresión almacenando solamente los cambios de un frame al siguiente, en vez de almacenar el frame entero. La información del video se codifica usando la DCT. Distintos estándares de compresión se han normalizado bajo el formato MPEG. Estos estándares son: MPEG-1: Es el estándar inicial en la compresión de audio y video. Se utilizó como la norma principal para el VCD. Esta norma incluye la popular compresión de audio capa 3 más conocido como MP3. Proporciona un resolución de video de 320x240 a 30 frames por segundos (fps). Por esta razón la calidad de video es un poco inferior a la calidad de los videos convencionales VCR. MPEG-2: Este estándar da las normas para la difusión de calidad de televisión donde se incluye NTSC, e incluso HDTV. Utilizado para dar servicios de televisión por satélite, señales de televisión digital por cable y para los discos de video DVD con pequeñas modificaciones. Ofrece resoluciones de 720x480 y de 1240x720 a 60 fps. Bajo este estándar se puede comprimir un video de 2 horas en solo unos cuantos gigabytes, y aunque el proceso de descompresión de datos no requiere muchos recursos del procesador, la compresión si necesita de una energía más que considerable para llevar a cabo el proceso. MPEG-3: Diseñado originalmente para la HDTV, aunque se abandono poco después debido a que se prefirió el estándar del MPEG-2.

52 52 MPEG-4: Este estándar expande el estándar MPEG-1 para que soporte objetos de audio, video, contenido 3D, codificación de baja velocidad binaria y soporte para la gestión de derechos digitales (copyright). Se emplea como códec HDTV, debido al deterioro de la norma MPEG-2. MPEG-7: Formalmente es llamado Multimedia Content Description Interface (Interfaz para descripción de contenido multimedia). Se diseña para ser genérico y no tiene un uso específico. MPEG-21: este estándar incluye un Right Expression Language (REL) y un Right Data Dictionary. MPEG-21 a diferencia de los demas estándares define el contenido, y los métodos para acceder, buscar, almacenar y proteger el copyright del contenido. [39] La figura 2.15 nos enseña en forma resumida las normas MPEG. Figura 2.16 Estándares MPEG [40] Transport Stream MPEG-2 (TS-MPEG2) La señal de entrada y salida que se especifica para cada sistema de transmisión de video digital (satélite, terrestre, cable, etc.) se le denomina Transport Stream MPEG-2 (TS-MPEG2) o flujo de transporte MPEG-2 en español. Este flujo es una señal multiplexada que contiene toda la información (video, audio, datos) que se necesita transmitir en el sistema de video que se utilice (satélite, por cable, etc.).

53 53 La generación de un flujo de la señal MPEG-2 consta de dos capas o etapas: la capa de compresión y la capa de sistema. La figura 2.16 nos muestra el esquemático de las dos capas para la obtención del flujo de la señal MPEG-2. Figura 2.17 Proceso de generación del Transport Stream [134] La capa de compresión como su nombre lo indica, es la etapa donde se realiza la compresión de los datos, realizando las operaciones de codificación MPEG, aprovechando la redundancia espacial y temporal de las imágenes. Esto se complementara en el apartado Por otra parte, la capa del sistema, es la etapa se realizan las operaciones necesarias para conseguir el flujo de transporte de la señal MPEG-2, además, también se puede conseguir el Program Stream MPEG-2, el cual es una señal muy similar a la anterior, pero la diferencia con el flujo de transporte es que todos estos datos están fusionados en un único flujo de bits. El TS-MPEG2 tiene un tamaño fijo de 188 bytes por paquete, y es diseñado para aplicaciones donde se pueden perder datos, dato que contrasta con el flujo de programa, el

54 54 cual es diseñado para aplicaciones donde los errores son poco probables y se puede contar con bit-rate constante o variable. Combina o multiplexa audio, video y datos en un solo flujo y transporta múltiples programas. Muchos de los sistemas como lo son ATSC, ARIB, DVB u OpenCable utilizan el TS-MPEG2. Tal como se muestra en la figura 2.16, la etapa de codificación genera un flujo de datos conocido como Elementary Stream (ES) o flujo elemental, el cual puede ser audio o video. Este flujo elemental es empaquetado en la siguiente etapa en paquetes PES (Packetised Elementary Stream). La figura 2.17 muestra la forma de empaquetado del flujo elemental. En esta se puede observar como él ES, el cual está conformado por unidades de acceso 11 de video o de audio las cuales son empaquetadas en paquetes PES y formar el flujo PES. Figura 2.18 Empaquetado del flujo elemental [134] Estos paquetes PES tienen longitudes variables en especial cuando el Transport Stream requiere que Video PES tenga esta característica, aunque normalmente se limitan a 64KB. Se componen de un header o encabezado y el payload o carga útil. Este payload son bytes de datos tomados secuencialmente del ES. 11 Access Units o Unidades de Acceso. En video los frames comprimidos (tipos I, P y B) forman cada uno una unidad de acceso. De igual forma en Audio, son los fragmentos de audio comprimido.

55 55 No existe ninguna norma o limitación que diga que el comienzo de una unidad de acceso debe estar alineado con el comienzo de un paquete PES. Por tal razón es posible que una unidad de acceso comience en cualquier punto del payload así como que en un paquete PES puedan contenerse varias unidades de acceso pequeñas. El encabezado en contra parte, también puede ser variable, y en ella se especifica entre otras cosas la longitud del paquete y la longitud del mismo. Por último, se crea el Transport Stream, multiplexando los flujos de paquetes elementales formando paquetes de 188 bytes conocidos como los paquetes de transporte. Cada uno de estos paquetes de transporte se compone de 4 bytes destinados para el encabezado, un campo de adaptación o adaption field (para rellenar espacio disponible) y el payload. La formación de estos paquetes se observa en la figura Ciertas condiciones se deben tomar a la hora de producir un paquete de transporte: Figura 2.19 Formación de los paquetes de transporte [134] Se observa cómo cada paquete PES es el inicio de cada payload de los paquetes de transporte. Teniendo en cuenta que cada paquete PES es variable pero siempre ronda los 64KB, y un paquete de transporte está estipulado para ser de 188 bytes, se observa cómo se puede dividir este paquete PES en varios paquetes de transporte, pero hay que recalcar que no se puede asegurar que un paquete PES llene completamente un número exacto de

56 56 payloads de paquetes de transporte. Este espacio sobrante se rellena con una longitud apropiada para un campo de adaptación ya que ningún paquete de transporte podrá contener datos provenientes de dos paquetes PES. Este campo de adaptación se utiliza entre otras cosas para la transmisión del PCR (Program Clock Reference) la cual permite sincronizar el reloj del decodificador con el reloj del programa al que pertenecen los paquetes de transporte. Estas marcas de sincronización, deben aparecer en el TS cada 0.1 segundos [134] Compresión de Video MPEG-2 Una cámara de alta definición genera una secuencia de video de aproximadamente bytes por segundo. Este flujo de bits se debe comprimir para ser adaptado al ancho de banda correspondiente. La compresión en formato MPEG-2 se basa en los principios del MPEG-1 pero se agrega la compensación de movimiento (ver sección 2.2.3) para lograr desplazamientos más suaves y naturales, aplicando el criterio de que varios frames seguidos a menudo contienen datos redundantes. Los algoritmos de MPEG-2 realizan una división del video en GOP s (Groups Of Pictures), donde la primera imagen se toma como referencia para las demás imágenes de la secuencia. Normalmente estos GOP s se componen de 12 imágenes pero este dato puede ser variable según el bit-rate que se desee. La primera es la técnica utilizada en la compresión es la compresión espacial utilizada por el formato de compresión de imágenes JPEG (Join Photographic Experts

57 57 Group). Esta técnica se refiere al criterio de que pixeles continuos son redundantes, por tal razón la imagen se divide en cuadros de tamaño 8 x 8 pixeles que son evaluados mediante la DCT (Discrete Cosine Transform). La segunda característica, ya comentada anteriormente, es la que realiza el estudio de los frames consecutivos siguiendo el criterio de que dos imágenes consecutivas no difieren mucho, lo que hace posible que se deseche información que es redundante. Esto se conoce como compresión temporal o compensación de movimiento. Como se explicó en la sección 2.2.3, MPEG-2 divide cada GOP en frames tipo, I, P o B. Un tipo I, es donde se efectuará y aprovechará al máximo la compresión espacial, tomando la poca capacidad del ojo para notar ciertos cambios en la imagen (diversidad de tono de un pixel a otro), dando como resultado que este tipo de frame no dependa de los frames P y B. El proceso de cómo se realiza la compensación de movimientos se encuentra descrito en el apartado Las técnicas de compresión de audio utilizadas por MPEG-2 son las mismas codificaciones en su predecesor MPEG-1 (Layer 1, 2 o 3), él cual utiliza criterios psicoacusticos para reducir significativamente la tasa de datos eliminando ciertas partes del audio que el oído humano no puede percibir. Aparte, MPEG-2 agrega la posibilidad de codificar hasta 6 canales de audio (Dolby 5.1) y permite una reducción aproximada de la mitad del muestreo de la señal de audio en cada uno de los diferentes tipos de codificación (Conocido como Layer 1/2/3 LSF). Los códec de sonidos más importantes en aplicaciones de video digital se presentan en las siguientes secciones. [39][41][42][134]

58 Códec de audio AC-3 Adaptive Transform Coder 3 (AC-3), cuyo nombre comercial es Dolby Digital, es una técnica de compresión de audio desarrollada por los laboratorios Dolby. Posee la característica de permitir codificar una serie de formatos de canales de audio en una baja tasa de flujo de bits. AC-3 es la más común de las técnicas de compresión de Dolby, conteniendo hasta 6 canales de sonido; cinco canales con ancho de banda de 20 Hz 20 KHz, para altavoces de rango normal y un canal dedicado que se conoce como subwoofer. Es un formato de compresión perceptual o compresión con pérdidas, donde se eliminan los sonidos que no puedan ser percibidos por el oído humano, consiguiendo una reducción de ancho de banda de los datos de audio. [136] MPEG-1 Layer II (MP2) El formato MPEG-I Layer II más conocido como MP2, es un formato de compresión de audio con pérdida 12. En PCs, el MP2 ha sido casi totalmente desplazado por el MPEG-I Layer III o MP3, sin embargo, este formato de compresión se mantiene como el más popular en el ámbito de radiodifusión de audio y televisión digital DVB-T. MP2 se deriva del códec de audio conocido como MUSICAM que fue desarrollado por el CETT (Centro de estudios de televisión y telecomunicación), Phillips y la IRT (Institut für Rundfunktechnik ). MUSICAM fue uno de los pocos códec capaces de 12 La compresión con perdidas o Lossy Compression, es un método de codificación de datos, en donde los datos, en donde se realizan descartes (perdidas de datos) con el fin de lograr el objetivo.

59 59 conseguir una alta calidad de audio en bit-rates que van de 64 a 192 KB/s por canal monofónico. Al ser derivado de este, el MP2, también contiene características que el MUSICAM poseía debido a que fue diseñado para radiodifusión. Alguna de estas ventajas son: retardo bajo, de baja complejidad, robustez del error, unidades de acceso a corta distancia, entre otras. MP2 es un codificador de audio a sub banda, lo cual significa que la compresión tiene lugar en el dominio del tiempo con un banco de filtros de retardo bajo que producen 32 componentes de frecuencia. Esto quiere decir que al recibir la señal de entrada, esta se divide en 32 sub bandas. Si se determina que la banda no se puede percibir, esa banda no es transmitida. El MP2 funciona similar al MP3 cuando funciona en bit-rates altos, los cuales van de 192 a 384 KB/s. Además es más resistente a errores que el MP3, por esta razón es que es más utilizado en labores de transmisión. [43] AAC/HE El AAC/HE (High Efficiency Advance Audio Coding o Codificador Avanzado de Audio en español), es un formato de compresión de audio con pérdidas para audio digital, el cual es definido como un perfil del audio del MPEG-4 en la norma ISO/IEC Este formato permite manejar muchos hasta 64 canales (48 de full audio y 16 de baja frecuencia). [43]

60 60 Una característica importante de este formato es su flexibilidad para el transporte de metadatos. Estos metadatos se pueden añadir como datos auxiliares, los cuales solo decodificadores compatibles con este pueden reconocer en la señal. Como se explicará en la sección 2.5 los metadatos son importantes en la difusión digital, y se pueden utilizar por ejemplo, como datos de descripción del contenido. El formato ACC/HE tiene dos versiones, la primer versión (ACC/HEv1) utiliza la replicación de banda espectral (SBR 13 ), para mejorar la eficiencia en la compresión. AAC/HEv2, acopla esta técnica con una técnica llamada estéreo paramétrico para mejorar la eficiencia de la compresión. [43] Códec Avanzados de Video AVC (H.264 o MPEG-4 Parte 10) AVC (Advance Video Coding) es un estándar de alta compresión de video especificado en la norma ISO/IEC , desarrollado en conjunto por la ITU-T, Video Coding Experts Group (VCEG) y el ISO/IEC MPEG, buscando un estándar que proporcionara mayor calidad de imagen con tasas binarias inferiores a los estándares MPEG-2, H.263 o MPEG-4 parte 2 sin incrementar la complejidad del diseño. Además, proporciona la flexibilidad necesaria para que la norma se pueda aplicar a una gran variedad de aplicaciones en una amplia variedad de redes y sistemas, donde se pueden incluir altos y bajos bit- rates, baja y alta resolución de video, transmisión, almacenamiento en DVD, paquetes de redes RTP/IP y sistemas de multimedia telefónica UIT-T. 13 SBR (Spectral Band Replication), es una técnica para mejorar el audio especialmente a bajas velocidades

61 61 Se utiliza en aplicaciones como reproductores de blu-ray, videos Youtube, Flash Player de Adobe, Silverlight de Microsoft, servicios de radio difusión de DVB y SBTVD, transmisión directa de servicios de televisión por satélite, servicios de televisión por cable y video llamadas. Mantiene la estructura de compresión de DCT y compensación de movimiento de las versiones anteriores debido a que esta era muy superior a los otros estándares y no necesitaba mayores modificaciones pero no es compatible con las normas anteriores. Inicialmente, AVC MPEG-4 fue utilizado en video de baja calidad (videoconferencia y aplicaciones web), utilizando 8 bits/muestra y muestreo ortogonal de 4:2:0. Sin embargo, al querer ser adicionado a un ambiente un ambiente profesional se requiere más de 8 bit/muestra y muestreo de 4:4:4 o 4:2:2, además de funciones para mezcla de escenas, bit-rates más altos, para menor perdida en la visualización del video, y utilizar el sistema de color RBG. Tras estas necesidades, la JVT 14, lanzó las extensiones conocidas como Fidelity Range Extensions (FRExt), las cuales habilitaron la codificación de video de mayor calidad, soportando el incremento de la precisión del sample bit depth, mayor información de la resolución de color, cuantización usando matrices escaladas, soporte para tamaño adaptivo cambiando entre transformadas enteras de 4x4 y 8x8, mayor eficiencia en la codificación sin perdida entre imágenes y soporte para espacios de colores adicionales. La aplicación de este formato de video es muy amplia, cubriendo la compresión de video digital desde video web de muy bajo bit-rate hasta la transmisión de televisión de alta

62 62 definición que se encuentra muy cerca a la codificación sin perdidas. Debido a que fue diseñado para que no fuera compatible con sus predecesores, muchos organismos han modificado sus estándares de video para poder adoptar el formato AVC sin ningún inconveniente. [140] SMPTE VC-1 VC-1 es el nombre informal del códec de video SMPTE 421M, el cual originalmente fue desarrollado como un códec de video propietario de Microsoft, pero después fue lanzado por SMPTE. Se diseñó con el fin de ofrecer una muy alta calidad de imagen y una compresión de video eficiente. Justamente su aplicación más popular es Windows Media Video 9 y Silverlight de Microsoft aunque también es usado en los HD- DVD y en los discos Blu-Ray. Aparte, Microsoft lo eligió como el códec oficial para la consola XBOX 360. VC-1 es una evolución del diseño convencional de los códec basados en DCT. Contiene herramientas de codificación para las secuencias de video entrelazadas y para la codificación progresiva, dando así su mayor atractivo al proporcionar soporte a la compresión de video entrelazado sin tener que convertirlo primero en progresivo, lo cual es muy utilizado en la industria de la difusión y video. VC-1 maneja 3 tipos de perfiles (Simple, Main y Advanced), cada uno con sus diferentes niveles compresión, bit-rates y resoluciones que pueden manejar. [44] Interfaces físicas utilizadas 14 Join Video Team, JVT. Conjunto conformado por expertos de MPEG y VCEG.

63 Asynchronous Serial Interface (ASI) La interfaz serial asíncrona es un formato de flujo de datos que se utiliza transmitir señales de forma asíncrona. En DTV se utiliza para transportar los datos del Transport Stream de MPEG. El término asíncrono se refiere a que la información se envía un carácter a la vez y corre libre sin sincronización con ninguna señal de reloj. Al no utilizar reloj para el envío y recepción de datos, cada carácter que se transmite se compone de un número de bits de datos, de los cuales siempre se encontraran un bit de inicio y dos bits finales (bit de paridad y bit de fin). Una señal con formato ASI puede transportar uno o varios programas SD, HD o de audio que hayan pasado por un proceso de compresión, teniendo velocidades variables y dependientes completamente de los requisitos de configuración del usuario. Es comúnmente utilizada por la DVB, y por tal razón es común encontrarla con el nombre de DVB-ASI. Principalmente, está diseñado para el transporte de flujo de datos de video MPEG-2 para aplicaciones de televisión utilizando cable coaxial a un bit-rate de 270 Mbps. En algunas ocasiones este flujo de transporte es convertido para otros tipos de transmisión como fibra óptica, RF, o SMPTE Tiene dos formatos de transmisión: formatos de 188 y 204 bytes. El primero consta de 4 bytes de encabezado y lo restos 184 son de datos. El segundo formato se obtiene 15 SMPTE 310M, es un estándar de transmisión que ofrece flujos de transmisión de 19,39 MB.

64 64 cuando el formato de 188 pasa a través de un corrector de datos Reed-Solomon, debido a que este agrega 16 bytes de más para protección. [45] MPEG-2 TS over IP Como se dijo en apartados anteriores, los datos del flujo de transporte son transmitidos en forma de paquetes llamados paquetes de transporte. Para aprovechar al máximo el transporte en forma de paquetes, se emplea el envío de paquetes sobre una plataforma IP (Internet Protocol). Bajo este protocolo, se emplean otros protocolos para el transporte de paquetes, los cuales se utilizan dependientemente del tipo de dato que se transmite. Entre estos protocolos de transporte se utilizan el protocolo UDP (User Datagram Protocol) y el RTP (Real-Time Protocol) los cuales se explicaran en los siguientes apartados TS over UDP Es un método para el transporte del Transport Stream de MPEG-2 sobre el protocolo IP, el cual selecciona un número de paquetes del TS y los transporta como la parte de los datos (payload) de un datagrama UDP. Redes basadas en Ethernet tienen una unidad de transmisión máxima (MTU) de 1500 bytes, por lo que si se divide entre el número de bytes de un paquete MPEG-2 (188 bytes), da como resultado aproximado de 7 paquetes máximos tomados por datagrama. En realidad, el sistema puede variar este número de paquetes en el rango de 1 a 7 por cada datagrama. Es un protocolo muy utilizado en video, cuando estos datos no provienen de una señal en tiempo real. [8]

65 TS over RTP Es otro método de interfaz utilizada para el transporte del TS sobre el protocolo IP. En este caso utiliza el protocolo RTP (Real-Time Transport Protocol) donde la parte de datos (payload) del protocolo transporta un número de paquetes TS. Al igual que el transporta sobre en UDP, carga 7 paquetes en las redes basadas en Ethernet. Como su nombre lo indica, es un protocolo altamente utilizado en el transporte de programas de video en tiempo real por la seguridad que ofrece. [8] 2.5 Metadatos Los metadatos son datos altamente estructurados que describen información, contenido, calidad, condición y otras características de los datos. Una definición que es usada popularmente cuando se habla de los metadatos es describirlos como los Datos de los Datos. Utilizados comúnmente para la búsqueda o recuperación de información, la cual la mayoría de las veces esta archivada o almacenada en algún lugar. Un ejemplo claro de esto es la de una página web, la cual lleva metadatos que describen por ejemplo el idioma en la cual está escrita la página, o las herramientas que se utilizaron para su creación. En el caso del video, los metadatos son de mucha utilidad, ya que la información del contenido del video no es comprendida directamente por un computador, pero una búsqueda eficiente de la información es una práctica deseable como por ejemplo en las guías de programación. [46][2]

66 66 Los apartados siguientes describirán algunos de los sistemas estandarizados de metadatos usados en la actualidad Metadatos en banda PSI/SI (Program Specific Information/Service Information) La información específica del programa o Program Specific Information (PSI), son metadatos acerca de un programa o canal que son enviados dentro del TS-MPEG2, y se utilizan para demultiplexar el TS-MPEG2 con el fin de conseguir la regeneración exitosa de un programa. Estos metadatos se transmiten en una estructura de tablas, con el fin de poder abarcar múltiples paquetes de transporte. Estas tablas son: - PAT (Program Association Table): contiene información de los programas contenidos en el TS. - CAT (Conditional Access Table): es utilizada para el acceso condicional a los streams. - PMT (Program Map Table): Transporta la información del tipo de dato transmitido (audio, video, etc.) - NIT (Network Information Table): Transporta la información referente de los multiplexores y las informaciones de los TS de una red. - TDT (Time and Date Table): provee el código UTC. El formato de estas tablas se pueden observar con detalle en el Anexo 2. [47][101] ATSC A/65: PSIP

67 67 Program and System Information Protocol (PSIP), es un protocolo utilizado en el sistema de televisión ATSC y estandarizado mediante la norma ATSC A/65, el cual se encarga del transporte de los metadatos en la difusión del TS-MPEG-2 de un canal de televisión y además transmite información referente al canal para que el usuario pueda elegir lo que desea ver a través del título o la descripción. Para realizar su función, PSIP define canales virtuales y realiza una valoración del contenido de la señal así como una Electronic Progam Guide (EPG) (ver sección 2.8.6). [119] Al igual que PSI (sección ), los metadatos PSIP se transmiten en una estructura de tablas dentro del TS-MPEG2. Estas tablas son: - STT (System Time Table): El tiempo actual, transmitido aunque sea una vez por segundo. - MGT (Master Guide Table): Es un puntero de datos que apunta a las otras tablas. Como su nombre lo dice es una guía de las tablas PSIP. - TVCT (Terrestrial Virtual Channel Table): define cada canal virtual. - CVCT (Cable Virtual Channel Table): Asigna números a cada canal virtual. - RRT (Rating Region Table): contiene los ratings para cada región cubierta por la operadora. - EIT (Event Information Table): datos de titulo y guía de programas. - ETT (Extended Text Table): Descripción detallada de los canales. - DCCT (Directed Channel Change Table)

68 68 - DCCSCT (Directed Channel Change Selection Code Table): provee la capacidad de actualizar estados SCTE-35: Digital program insertion cueing message for cable La norma SCTE-35, conocida como el estándar cue tone o tonos de referencia, especifica los mecanismos de señalización de los mensajes cue tone al transport stream de MPEG-2. Estos mensajes de referencia son metadatos que actúan como una señal de aviso la cual es muy importante para la inserción digital de programas (ver sección 4.1.2). Los mecanismos de señalización del flujo de transporte de MPEG-2 reservan ancho de banda de la señal, puntos de empalmes de señalización y otras funcionalidades asociadas a estas, para unir estos programas. El estándar busca el empalme de la señal, sin embargo, no tienen ninguna intención de garantizar una unión sin daños en la señal. [111] SCTE-18: Emergency alert messaging for cable La norma SCTE-18, es un estándar que define los mensajes de alerta de emergencia por cable, permitiendo la transmisión de estos de manera eficiente (sin interferencias ni interrupciones). El sistema de alertas de emergencia está compuesto por cuatro partes básicas: un encabezado SAME (Specific Area Message Encoding) digitalmente codificado, una señal de atención, un anuncio de audio y un marcador de fin de mensaje codificado. El encabezado SAME es la parte más importante, ya que porta la información de quien origina

69 la alerta (ya sea el presidente, autoridades locales, servicio de clima), una descripción del evento (tornado, terremotos, seguridad), áreas afectadas, duración esperada del evento, la fecha y hora del evento (basado en UTC) e identificación de la estación que la origino. Los operadores de cable están en la capacidad de cumplir con los requisitos simplemente sustituyendo la señal fuente con la señal de emergencia, sin embargo, esta operación contrae dificultades si el operador de cable se encuentra en un entorno digital, ya que el transport stream puede transportar muchos programas que tendrían que ser interrumpidos de forma individual, por tal razón, el estándar se basa en un nivel de prioridad para las alertas, y dependiendo a la prioridad de la alerta se envía un mensaje al dispositivo receptor (DVR, VCR, decodificadores) para forzarlo a sintonizar el canal que difunde la emergencia. Estas prioridades de los mensajes están definidas en una tabla del estándar ISO/IEC [112] El soporte de mensajes de emergencia para los dispositivos de recepción involucra entre otras cosas: un esquema de señalización para identificar los mensajes de alerta, la hora de inicio y final de la alerta de emergencia, una descripción textual de la emergencia, indicación de la disponibilidad y ubicación de los detalles del canal, indicación de prioridad de alerta para saber si vale la pena colocar ese mensaje en la señal y un puntero a un canal opcional de audio SCTE-65: Service information delivered out-of-band for digital cable television 69

70 70 La norma SCTE-65, específica la forma de entrega los metadatos conocidos como servicio de información (SI), los cuales son transmitidos en tablas de forma muy similar a los metadatos PSI con la particularidad de que son enviados fuera de banda. Los datos SI proporcionan la información necesaria para decodificar y acceder con éxito a los distintos servicios digitales ofrecidos por cable (video interactivo, video bajo demanda, guías de programación, entre otros). Las tablas transmitidas tienen un formato definido por la estructura de datos PSI definidos en sistemas MPEG-2. [113] 2.6 Sistemas de video digital Debido a que un sistema de televisión por cable tiene la capacidad de transmitir audio, video datos simultáneamente por una red hibrida fibra-coaxial (HFC), se explicará la estructura de un sistema de televisión por cable básico, además de algunos sistemas contenidos internamente para la posible entrega de servicios interactivos. Aprovechando la red coaxial ya existente en los hogares, diferentes compañías instalan sistemas como MOCA y HPNA que permiten el transporte de aplicaciones interactivas sobre estas redes de cable Funcionamiento de un sistema de televisión por cable Un sistema de televisión digital por cable moderno permite en su infraestructura el poder transmitir video, audio y datos. Además muchos sistemas permiten ofrecer servicios de televisión digital avanzados como el video bajo demanda (VoD), voz sobre IP (telefonía) y acceso a internet a alta velocidad utilizando una red hibrida de fibra-coaxial (HFC).

71 71 Un sistema de televisión por cable se compone de 5 componentes básicos: - La cabecera o headend (ver sección 4.2) - La fibra óptica - Alimentadores coaxiales. - Cable coaxial de bajada - Equipos terminales Figura 2.20 Sistema de televisión por cable [48] Un operador de televisión transmite su programa de televisión desde un satélite, antenas microonda o a través de un enlace directo de fibra óptica hacia la cabecera. En el headend, la señal es modulada y asignada a un canal de frecuencia única. Cada señal única ocupa un lugar en el espectro la cual es transmitida por la red de cable hasta el suscriptor. La utilización fibra óptica ha revolucionado la transmisión de señales por cable al permitir a los operadores de cable transmitir las señales a mayor velocidad con una gran robustez contra el ruido durante la transmisión. En los nodos de fibra (ver sección 4.3.1), se lleva a cabo el cambio de fibra a cable coaxial consiguiendo una correcta transición de

72 interfaces para el no deterioro de la señal y la correcta operación de la bidireccionabilidad del flujo desde y hacia el headend (upstreams y downstreams). La última etapa de un sistema de televisión por cable se da en la entrada de la señal a los hogares o lugares de recepción mediante los cables coaxiales de bajada, los cuales se conectan a los equipos terminales entregados a cada usuario por la compañía de televisión. Estos equipos terminales son los decodificadores o set-top boxes (STB), televisores, cable módems o grabadores de video digital (DVR). [48] La cabecera contiene diferentes sistemas que se encargan del manejo de los servicios interactivos, además de controlar y aportar en la seguridad del contenido digital. Existen distintos sistemas de diferentes fabricantes utilizados para este fin. Algunos de estos son: el sistema DAC y DNCS; cada uno con sus ventajas y desventajas dando la opción al operador de cable de utilizar el que sea más conveniente en su sistema Home Networking o Redes Domesticas MOCA Multimedia over Coaxial Alliance (MoCA) es un grupo industrial sin fines de lucro establecido en el 2004, que se encarga de desarrollar especificaciones para el transporte de entretenimiento digital en una red domesticas utilizando cable coaxial por su amplia demanda en el transporte de señales de televisión y radio. MoCA es el único estándar de red de entretenimiento en el hogar que permite la interactividad para los 3 segmentos de televisión pagada (cable, satélite e IPTV). La actual especificación (MoCA 1.1, establecida en el 2007), soporta múltiples flujos de video HD, ofreciendo hasta 175 Mbps netos de rendimiento y da una experiencia 72

73 73 de usuario utilizando los parámetros de calidad de servicio (PQoS). Además utiliza una banda de micro onda de 1 GHz con modulación OFDM (Orthogonal Frecuency-Division Multiplexing). Cabe destacar que el estándar de MoCA no es un estándar abierto. Entre sus características principales tenemos: - Funciona con IPTV, televisión por cable y DBS. - Fácil de instalar - No hay interferencias - No hay servicio adicional de llamada - Funciona con cualquier red inalámbrica - PQoS para el manejo de la banda ancha. Se espera que para finales del 2010 salga el estándar MoCA 2.0, el cual incrementara a 400 u 800 Mbits/s la tasa de bits en el sistema. [50] HPNA HomePNA (Home Phoneline Networking Alliance) es una asociación de compañías sin fines de lucro que desarrollan y estandarizan tecnologías para redes domesticas sobre el existente cableado coaxial y de teléfono. Compañías como AT&T, Cisco, Motorola, Sunrise Telecom son las que fijan el curso de este desarrollo. HPNA en si no fabrica productos. Son sus miembros los que se encargan de fabricarlos siguiendo los estándares dados por HPNA. Es hasta la versión 3.1 (HPNAv3.1) que el estándar HPNA agrega los sistemas de cable coaxial para así aumentar las posibilidades de la red y además solucionar

74 74 inconvenientes que se relacionan con la ubicación del jackpot del cable telefónico. Aparte, los nuevos productos ofrecen velocidades de hasta 320 Mbits que hace posible la entrega tanto de de SDTV como de HDTV. Por lo general no interfiere con el servicio de internet DSL, conversaciones telefónicas y otras actividades incluso si estas se realizan al mismo tiempo y por el mismo cable debido a que se utilizan frecuencias mayores a estas y frecuencias por debajo de las utilizadas en transmisiones DBS (Direct Broadcast Satellite o transmisiones directas por satélite). Su compatibilidad con Ethernet al utilizar los conductores estándar de este, es otra de las ventajas que ofrece HPNA. Por tal razón, es fácil añadir algún producto con puerto Ethernet sin tener en cuenta el sistema operativo. En costo, no resulta tan costosa como una red Gigabit Ethernet, pero tampoco es la más económica de las redes domesticas. No se necesita un cableado especial, debido a que se utiliza cable de teléfono y coaxial instalado en el domicilio. Aparte de esto, la tecnología HPNA funciona en localidades conocidas como múltiples unidades de vivienda (edificios de apartamentos) para la entrega de servicios triple play 16. [51] La gran desventaja de HPNA es que no convive con la red DOCSIS 17, la cual es muy utilizada en las redes de televisión por cable y además los chipsets disponibles son escasos. 16 Triple Play, es un empaquetamiento de servicios de telecomunicaciones que abarcan voz, banda ancha y televisión. 17 Data over Cable Service Interface Specification, DOCSIS. Es un estándar que define los requisitos de la interfaz de comunicaciones y operaciones sobre la transferencia de datos en el sistema de cable.

75 Seguridad del Contenido La seguridad es un tema de suma importancia cuando se trata de video digital debido a las características que este posee. La suma facilidad con que este video es difundido por medios como internet, o su fácil grabación en discos de almacenamiento como DVD ha dado un gran golpe a diferentes instituciones, diseñadores de dispositivos y distintos empresarios que principalmente vendían sus productos de manera física y no en formatos digitales. Grandes ejemplos de esto es la institución del entretenimiento (películas, televisión o música principalmente) o los editores de libros. Se definirá como se manejan estos derechos de violación intelectual, que la ley en muchos países aun no los añade a su constitución, así como las formas que se emplean para evitar las grabaciones Manejo de los Derechos Digitales Digital Rights Management (DRM) o manejo de los derechos digitales, es un término genérico usado por fabricantes de hardware, publicadores, titulares de derechos de autor e individuos para limitar el uso de contenido digitales (películas, videos, ebooks, publicaciones digitales y documentos digitales) y dispositivos. Grandes empresas tales como Sony, Apple Inc., Amazon y Microsoft, han incorporado este término entre sus políticas en la venta y supervisión de sus productos. El término es utilizado para describir cualquier uso indebido o no deseado por el proveedor. Generalmente, no es referido a otras formas de protección tales como lo son los números de serie o keyfiles (no modifican el contenido). Los DRM hacen referencia a las

76 76 restricciones de casos concretos a obras digitales o dispositivos. Fue creado debido a la amplia demanda que existía para proteger la propiedad intelectual del proveedor. A pesar todo, siempre hay grupos opositores como la Free software foundation, la cual se opone a que se le llamen derechos a algo que todavía no tiene estipulación legal con las leyes existentes, por tal razón se decidió llamarlo gestión o manejo de los derechos digitales. [52][3][6] Existen diferentes mecanismos de DRM los cuales son diseñados por diferentes empresas, pero en general todos tienen las siguientes características: - Detectan quien accede a cada obra, cuando y bajo qué condiciones. Y por ultimo reportan al proveedor de la obra. - Deniegan el acceso completo a la obra - Cuando acceden a dar acceso a la obra lo hacen bajo ciertas condiciones que son fijadas por el proveedor. El DRM, claramente es utilizado ampliamente en la industria del entretenimiento, debido a que sus ganancias dependen de la venta de su producto. Tal es el caso de las tiendas de música online como el ITunes de Apple Inc. En el campo del video digital, existen sistemas como empleado por DVD Forum en películas. Esta compañía utilizó un sistema llamado Content Scrambling System (CSS) el cual se basaba en la utilización de un algoritmo sencillo que requería que los fabricantes firmaran acuerdos de licencia, las cuales restringían la inclusión de características, como salidas digitales que podrían usarse para extraer copias de alta calidad en reproductores. Así se podía controlar el único hardware capaz de copiar DVD.

77 77 Otro ejemplo del uso de DRM, es el conocido Windows Vista de Microsoft, que contiene el Protected Video Path (PVP). El PVP intenta detener la reproducción de un contenido restringido por DRM mientras que un software se ejecuta para impedir que un software sin firmar (no privativo o software libre) no pueda acceder al contenido. [53] Accesos Condicionales (CableCARD) La CableCARD es un uso especial que se le hace a las tarjeta PC (PCMCIA) especialmente en Estados Unidos, el cual le permiten a los usuarios ver y grabar canales de televisión en grabadoras de video digital, laptops y televisores sin necesidad de la utilizar otros equipos como decodificadores; además, proporciona seguridad extra en la programación de televisión encriptada. Estas tarjetas del tamaño de una tarjeta de crédito, son suministradas al usuario por las compañías de televisión y es insertada por una ranura especial incorporada al receptor que reproducirá el video. Figura 2.21 CableCARD de Motorola [54] Esta tecnología provee un gran avance en la lucha de los operadores por evitar el robo de televisión por cable con la separación del sistema de recepción de video (normalmente el decodificador) y el dispositivo de manejo de los accesos condicionales o Conditional Access (CA). En este sistema, la CableCARD se inserta en el dispositivo host el

78 78 cual es una tarjeta PCMCIA tipo II, en donde se maneja la descripción del video y se asegura que solo la persona que ha pagado por ese canal pueda observarlo. El acceso condicional (CA), es una protección, la cual contiene ciertos criterios que se deben cumplir antes de poder acceder a este contenido protegido. El estándar del acceso condicional en Estados Unidos está dado por CableCARD. Cablelabs ha expresado su deseo, que en próximas generaciones de este sistema se evite la utilización de tarjetas físicas, sino más bien, lo que busca es que sea software descargable, ahorrándose así costosos de cambios de tecnología en módulos de acceso condicional, además de facilitar las actualizaciones de los accesos condicionales. [54] 2.8 Avances Tecnológicos El avance tecnológico referente al video digital no se detiene. Con el desarrollo y total adopción del video digital como el estándar de transmisión en muchos de los países de primer mundo, con suficiente presupuesto para el desarrollo del video digital. Las operadoras de cable, en especial, en conjunto con distintas instituciones han desarrollado diferentes plataformas, tecnologías, y funciones con el objetivo de lograr una mejor interacción del usuario con la tecnología que tiene en sus manos. Este apartado explicará las principales novedades desarrolladas para la utilización esta tecnología de video y la facilidad que se le ofrece al usuario de esta tecnología PacketCable Multimedia (PCMM) PacketCable, es una tecnología desarrollada por CableLabs, que actúa sobre la red DOCSIS y utiliza el protocolo IP para proporcionar una red fiable en redes de cable de

79 79 datos de alta velocidad además de permitir el transporte de una amplia gama de servicios e interacciones multimedia, tales como voz sobre IP (en telefonía IP), conferencias multimedia y juegos interactivos entre otros. La versión PacketCable Multimedia (PCMM) es la sucesora de la especificación original PacketCable 1.0, la cual se limitaba a la telefonía digital, además, permite su integración en redes HFC. Las señales de voz y el video son muy sensibles a los retrasos de la red, por tal razón, PCMM es una gran opción para evitar estos problemas debido a su fiabilidad en las operaciones en tiempo real al aplicar la arquitectura QoS 18 (quality of services), aunque, no solo estas operaciones se ven beneficiadas por esta aplicación. Un ejemplo de esto es que los datos de usuarios a alta velocidad pueden dar impulsos a sus servicios del mejor esfuerzo (Best Effort) para permitir transferencias de archivos más rápidas. [56][57] Switched Digital Video Debido a la amplia gama de opciones que las compañías de cable han puesto para el uso de sus clientes, la demanda de ancho de banda se incrementa considerablemente generando grandes inconvenientes a las compañías. Por tal razón se está implementando la conmutación digital del video (SDV) como parte de una posible solución al problema. Un sistema de entrega de televisión por cable sin conmutación digital de video envía, todo el tiempo, todos los canales a disposición combinados por la red. En este caso, es el dispositivo de recepción el encargado de sintonizar el canal que se desea observar 18 Quality of Service, QoS. Tecnologías que garantizan la calidad del servicio brindado.

80 80 enviando la señal del canal según la frecuencia solicitada. Esta forma de envío de canales supone un problema al no reservar ancho de banda de repuesto para la señal de internet, canales de video digital o canales de alta definición, además, considerando que los canales de alta definición (HD) ocupan mayor ancho de banda que los canales de video digital normales. Este sistema es el utilizado actualmente en nuestro país, ya que el ancho de banda existente da abasto con los sistemas interactivos, servicio de datos y la poca disponibilidad de canales con contenido de alta definición. La figura 2.22 describe como se envían los canales por la red sin la utilización del sistema SDV. Figura 2.22 Sistema de entrega de televisión por cable sin conmutación digital [58] Por otra parte, un sistema de entrega con SDV en vez de transmitir todos los canales combinados en la red, la compañía de cable selecciona los canales más populares de la red y los envía en forma combinada por el canal de transmisión. La cantidad de canales varía según la compañía de cable pero el promedio es de 20 canales. Cuando un usuario desea ver un canal que no está en este conjunto de canales, la empresa responde a los clientes individualmente creando un nuevo canal QAM y lo envía por el canal. Por esta razón debido a que se envían los canales a clientes individuales, hay una gran cantidad de ancho

81 81 de banda disponible para el resto de los servicios que brinda el operador de cable, dando así la posibilidad al operador de: - Aumentar los canales disponibles para la región. - Aumentar canales de HD. - Crear más contenido para VoD (ver sección 2.8.3). - Experimentar con formatos de televisión interactiva. - Descargar contenido más rápido con el cable modem. La figura 2.23 describe como se realiza la entrega del servicio por conmutación digital. El cliente realiza la petición al no encontrar el canal que desea ver entre los canales populares que se envían por la red. Dado esto el operador de cable atiende la solicitud del cliente y envía la señal del canal solicitado solo a ese cliente. También se puede observar la cantidad de ancho de banda que sobra para poder realizar más servicios. [59] Figura 2.23Sistema de servicio de cable con SDV [58] Arquitectura del SDV No hay una forma estandarizada para SDV, pero hay 4 componentes principales que se detallan en la figura 2.24: cabecera, sistema de transporte, sistema de acceso y red del cliente.

82 82 Figura 2.24 Sistema SDV [58] La cabecera, como se explico en el apartado y que se ampliará en la sección 4.2, es donde el video y los datos se incluyen en el sistema. Una vez que la cabecera convierte la señal en formato MPEG, se envía al sistema de transporte, donde el principal propósito de este es dar la ruta para las señales. Esta sección está compuesta por los nodos y enrutadores. El sistema de acceso, es donde se lleva a cabo la conmutación digital. En esta sección, el núcleo es un servidor de SVD, el cual realiza un seguimiento a las peticiones de cambio de canal realizadas por los clientes. Para cumplir con estas demandas, el servidor envía comandos ERM (Edge Resources Manager) y flancos QAM. Por último se encuentra la red de los clientes, incluye un decodificador que recibe y descifra las señales del sistema de acceso y un cable modem para los clientes que tienen el servicio de internet. [58] Video On Demand (VOD) El video bajo demanda, o también definido como video a la carta, es un sistema televisivo que permite al usuario tener acceso a opciones de multimedia de forma personalizada, ofreciéndole la posibilidad de solicitar la reproducción de una película en el momento que el usuario lo desee, además, ofrece funciones básicas para la reproducción

83 83 del video, tales como la opción de detener el programa o reanudarlo cundo el usuario lo requiera, así como la opción de la cámara lenta y rápida. El video bajo demanda de forma resumida es una base de datos local, donde un servidor se comunica con el usuario a través de una red de alta velocidad definida, permitiendo ciertas ventajas tales como: la aplicación bien distribuida y aumento de la disponibilidad y la fiabilidad Este sistema permite al usuario disponer de un programa en el momento en que él lo desee sin depender de horarios, simplemente descargando el contenido que solicita ya sea mediante una conexión cableada (óptico o coaxial) o mediante ADSL.. Existen dos sistemas de servicio VoD: el sistema basado en discos y el sistema basado en memoria. El sistema basado en discos conlleva la necesidad de realizar un procedimiento adicional para procesar la función de cámara lenta o rápida, ya que estos procesos deben ser almacenados en los discos, opción que el sistema basado en memoria no requiere ya que el procedimiento esta directamente almacenado en la memoria RAM. El operador de cable será el encargado de escoger cual sistema utilizar. Por otra parte, también se manejan dos sistemas de distribución de VoD: redes LAN o redes WAN. Si la distribución es implementada en sobre una red LAN, se pude garantizar una distribución más rápida a los usuarios de la red a comparación de estar conectados a la red WAN, sin embargo, esta ofrece la ventaja de mayor cobertura. La figura 2.25 detalla los diferentes elementos en una red VoD básica. [61]

84 84 Figura 2.25 Sistema VoD [60] El usuario interactúa con el STB, el cual junto con el televisor y el control remoto permite a los consumidores a conectarse con un servidor de video, donde se seleccionara la película o el contenido de multimedia que se desea accesar. La red del subscriptor, comunica a la instalación del cliente y la conmutación de oficina. Esta red se conecta al servidor de video y al STB. Un sistema VoD requiere de altas transferencias de datos a velocidades altas, por esto se han utilizado numerosos protocolos de comunicación cada uno de ellos con sus ventajas y desventajas. Entre las tecnologías utilizadas se encuentran: fibra óptica, ADSL, WiFi, CATV y ATM. La oficina de conmutación puede ser tanto una compañía de teléfono como de cable. Es aquí donde se realiza el direccionamiento del video a los usuarios. En el cabecera, se da el formato y organización de la señal para que siga en la red de la comunidad. El VDT Gateway, o tono de llamada, es un servicio asimétrico de conmutación donde el cliente escoge entre una amplia cantidad de material de video y la respuesta se da en tiempo real. Se debería crear y gestionar la conexión entre el proveedor de la información y el STB del usuario.

85 85 Por último, encontramos los servidores de video. Es el equipo de red donde se encuentra almacenado el material al cual el cliente querrá accesar. [60] Personal Video Recording (PVR) Personal Video Recording (PVR), también conocido como Digital Video Recording (DVR), es un dispositivo interactivo de grabación, que normalmente graba en un disco duro integrado, o en memorias flash, tarjetas SD u otro sistema de almacenamiento. Esta es la principal diferencia con su predecesor la videograbadora, la cual solo era capaz de grabar información en discos extraíbles (CD o DVD). Muchos televisores ya traen incorporados esta tecnología. LG fue el primero en implementarlo en el Una mejora notable que presentan los DVR, es la capacidad de poder reproducir el contenido mientras se graba. Por esta razón se dice que es un set-top box sofisticado con la característica de grabar. Un PVR se compone principalmente en un disco duro de gran capacidad, un microprocesador y buses de comunicación. Aparte de esto, el software proporciona distintas funcionalidades para el tratamiento del video, acceso a las guías de programación y la búsqueda avanzada de contenidos. [62][63] Interactive Programs Guides (IPG) Las guías de programas interactivas (IPG) o guías de programas electrónicas (EPG) proveen a los usuarios de la televisión, radio y otros medios digitales de guías de programación continuamente actualizadas y futura programación. Los IPG son emitidos por

86 86 equipo de video especializado ubicados en la central de distribución de televisión a diferencia de los EPG (no interactivos) que son transmitidos vía satélite o por un cable. Las IPG permiten a los espectadores navegar por los menús de programación de forma interactiva donde utilizando un dispositivo de entrada (normalmente el control remoto) el usuario puede elegir por título, genero, artista o tiempo, el contenido que desea visualizar. En la actualidad casi todos los receptores de televisión contiene el IPG integrado y desplazando casi en su totalidad a las EPG. Una de las aplicaciones más utilizadas del IPG es la de programar el DVR para grabar algún contenido audiovisual. Además se puede establecer que el DVR grabe una película de un actor, director, género en concreto. La transmisión de la IPG está basada en el estándar DVB, y va encapsulado en el transport stream (ver 2.4.3). [64] OCAP La plataforma de aplicaciones OpenCable (OCAP) diseñada por CableLabs, es una plataforma para las aplicaciones interactivas de DTV en Estados Unidos simulando el desarrollo hecho por la DVB con MHP 19. Su diseño está destinado a servicios interactivos como el comercio electrónico, la banca online, guías electrónicas de programas y la grabación de video digital. 19 Multimedia Home Plataform, MHP. Plataforma de televisión diseñada por la DVB.

87 87 Como ya DVB desarrollaba la MHP, CableLabs se basó en los principios de MHP adaptándolo a las demandas del consumidor de Estados Unidos. Esto es una gran ventaja debido a que las plataformas no se diferencian en gran parte y por tal razón los fabricantes de STB pueden producirlas solo con diferencias en el middleware y los desarrolladores de aplicaciones las programan para hacerlas compatibles con ambas plataformas. Aunque el OCAP se basa en MHP, omite o agrega partes de esta y que por la naturaleza y entorno en el que fue desarrollado no funciona con lo que OCAP desea abarcar. Es por esto que características de MHP como la API (La cual se desarrolla bajo estándares DVB), no son tomadas por la plataforma OCAP. [65][66] Network PVR La red PVR o red DVR (ndvr), es una red desarrollada principalmente por Cablevisión, basada en el grabador de video digital DVR (ver sección 2.8.4) el cual graba en la oficina central del proveedor del servicio y no en el lugar del cliente. El proveedor posee varios servidores, en donde la programación del cliente es almacenada. Este contenido grabado, puede ser luego accesado por cualquier suscriptor del proveedor. Por la utilización de esta red, Cablevisión ha tenido numerosos problemas legales debido a que varios productores de películas han denunciado que el uso de la red DVR es una falta a los derechos de autor. [67] DOCSIS Set-top Gateway (DSG)

88 88 DOCSIS Set-top Gateway (DSG), es una especificación elaborada por CableLabs para el transporte de la información de comandos y control de la STB actuando sobre el estándar DOCSIS. Esta especificación define los requisitos de la interfaz de transporte para los datos transmitidos fuera de banda (OOB, out of band) entre el controlador de la red y los STB digitales. Los datos de acceso condicional (CA), sistema de información (SI), EPG y el sistema de alerta de emergencia (EAS), entre otros, son enviados a las STB mediante una portadora de radiodifusión (RF), la cual se transmite por separado de los canales que se están observando; por tal razón se les conocen como datos fuera de banda u OOB. DSG proporciona una gran ventaja con respecto a otros métodos de transmisión de datos OOB al incorporar portadoras DOCSIS utilizadas para el servicio de cable modem permitiendo combinar operaciones de los decodificadores con el cable modem sin modificar las especificaciones DOCSIS, además, realiza una transmisión transparente de los datos OOB utilizando el protocolo IP entre el Cable Modem Termination System (CMTS) y los STB sobre una red HFC. Una red DSG está compuesta de 3 componentes: un servidor de acceso condicional el cual es el encargado de generar el flujo de datos OOB. El CMTS DSG envía el dato OOB y lo publica en el directorio de la banda (DCD) y por último el cliente DSG con su dispositivo STB para recibir el dato DSG. El STB se divide en tres subcomponentes: el cable modem conocido como el DSG ecm (Embedded Cable Modem), un cliente DSG y un controlador de cliente DSG. Una red DSG se describe en la Figura 2.26

89 89 Figura 2.26 Red DSG [68] En esta se puede observar una red DGS, con su servidor de acceso condicional, el CMTS y el STB con aplicación DSG. Cabe destacar que al ser una extensión de la norma DOCSIS, un STB con capacidades DSG puede presentar aplicabilidades tanto de STB como de cable modem tal como se ve en la figura [68][69] 2.9 Principios de red Modelo de referencia OSI El modelo de referencia OSI (Open Systems Interconnection o Interconexión de Sistemas abiertos en español), es el modelo de red desarrollado por la ISO, con el fin de proporcionar un marco de referencias para la definición de arquitecturas de interconexión en sistemas de comunicación. Este modelo, consta de 7 capas con funciones definidas, donde cada una de éstas contienen protocolos específicos, lo cuales en la mayoría de los casos, han sido estandarizados por separado del modelo de referencia pero siempre basándose en este. La figura 2.27 describe las diferentes capas y la estructura del modelo OSI.

90 90 Figura 2.27 Modelo de referencia OSI [5] A continuación, se explicará resumidamente cada una de estas capas iniciando desde la capa inferior o capa física del host A (según se ve en la imagen), hasta llegar a la capa superior (capa de aplicación). La capa física del es la encargada, como su nombre lo dice, de garantizar las conexiones físicas, de la computadora o sistema a la red de datos. Sus principales funciones son la de definir el medio físico por donde va a viajar la información, ya sea cable trenzado, coaxial, fibra óptica o canal inalámbrico. Definir las características mecánicas y eléctricas (tensión a manejar por ejemplo) en las que se llevara a cabo la transmisión de datos. Al ser la primera de las capas maneja los bits puros de la señal a través del canal de comunicación. La segunda capa, la capa de enlace de datos, se encarga principalmente de lograr la transformación del medio de transmisión puro (proviene de la capa física) en una línea de comunicación, garantizando que al llegar a la siguiente capa (capa de red), se encontrara libre de errores. La fragmentación de los datos en tramas se lleva a cabo en esta capa. Estas tramas son enviadas secuencialmente, tienen tamaños que varían en unas centenas o miles

91 91 de bytes. Además, se encarga de la topología de red, la conexión de la red y las notificaciones de errores. La capa de red es la encargada del direccionamiento lógico de los datos desde el host origen al host de destino, independiente del modo de transmisión que se esté utilizando en la conexión. En esta capa se encuentran los enrutadores, debido a que es en esta etapa donde se controlan las subredes; esto conlleva a decir que la capa de red debe solucionar problemas de compatibilidad que surjan en la entrega de datos de dos redes, así como los problemas de cuello de botella en el envío de paquetes (en conjunto con la capa de transporte). Aparte, los firewalls y el protocolo IP forman parte de su contenido. La cuarta capa es la capa de transporte, la cual es encargada de realizar el transporte de los datos, encapsulados en paquetes, de forma confiable y económica. En esta capa encontraremos dos protocolos principales: TCP 20 y UDP 21, cada uno de ellos usado dependiendo del servicio brindado (orientado a conexión o no orientado a conexión). La capa de sesión, es la quinta capa del modelo OSI. Esta se encarga de mantener el enlace establecido entre las dos computadoras que estén compartiendo datos. En otras palabras, es controla y asegura que la sesión establecida entre dos computadores y ser capaz de mantenerla de principio a fin o en el peor caso, poder mantenerla y reiniciarla en caso de ser interrumpida. Ofrece servicios tales como control de dialogo ( a quién le toca 20 Transport Control Protocol, TCP. Protocolo muy utilizado en internet para el transporte de paquetes. Garantiza que los datos son entregados sin errores 21 User Datagram Protocol, UDP. Protocolo basado en datagramas. Permite el envío de datagramas en una red sin que se haya establecido una conexión.

92 92 transmitir?), administración de token (evita que ambas computadoras hagan lo mismo al mismo tiempo) y sincronización (por si son interrumpidas transmisiones muy largas). La capa de presentación, se encarga de la sintaxis y la semántica de la información. Ya en las capas inferiores se ha llevado a cabo la transmisión de los datos, ahora le corresponde a esta capa la representación de esta información. Esto es necesario para que la información enviada entre dos computadores con diferentes representaciones de datos sea correcta. Por último tenemos la capa de aplicación, la cual contiene diferentes protocolos que los usuarios requieren con frecuencia como lo es el protocolo HTTP. También contiene protocolos para correos electrónicos, bases de datos, transferencia de archivos, entre otros. Normalmente el usuario no lo manipula directamente, sino que utiliza aplicaciones en su computador que se encarga de entablar una conexión directa con el protocolo en esta capa. [5] Protocolo Internet (IP) El protocolo de internet (IP), es un protocolo no orientado a conexión usado tanto por el host de origen como por el host de destino para la comunicación de datos los cuales son transmitidos en forma de paquetes o datagramas. Por lo general no se necesita ninguna configuración antes de que un equipo envíe paquetes a otro con el que nunca se halla comunicado. IP utiliza un servicio de datagramas no fiable, también conocido como del mejor esfuerzo, donde el envío se realiza de la mejor forma posible pero no lo garantiza, aparte,

93 93 tampoco provee de un mecanismo para determinar si un paquete alcanza su destino. Solo proporciona seguridad al encabezado y no así a los datos que se transmiten ya que el encargado de dar seguridad a los datos transmitidos es el protocolo de transporte utilizado. En la actualidad se utiliza el protocolo IPv4, aunque ya existe la versión 6 (IPv6), la cual se está siendo integrado poco a poco, debido a que las direcciones de la versión 4 se están agotando, con el aliciente de que la versión 6 cuenta con 128 bits para las direcciones por lo que puede albergar muchas más direcciones que IPv4 con 32 bits. El protocolo internet se implementa en dos funciones básicas: el direccionamiento y el fraccionamiento. El direccionamiento se refiere a la forma como se asignan las direcciones IP. Hay 3 consideraciones que se deben tomar cuando se lleva a cabo el direccionamiento: nombre, dirección y ruta. Los nombres indican que buscamos, la dirección el lugar donde se localizan y la ruta el camino que se debe seguir. El protocolo IP maneja direcciones. Estas direcciones IP serán explicadas con detalle en la sección Utilizando las direcciones ubicadas en la cabecera IP, se realiza el enrutamiento del paquete. Si un paquete excede la unidad máxima de transferencia del canal se realiza el fraccionamiento del paquete. La capa de red divide el paquete en sub-paquetes de menor tamaño. Esto puede ser realizado tanto en el host remitente como en los enrutadores presentes en la red de transmisión. El proceso de fragmentación debe ser capaz de dividir un paquete en un numero arbitrario de piezas que puedan se luego re-ensambladas. Esta operación de re-ensamblado

94 94 no se realizara hasta que llegue al host de destino y se puede presentar el caso en que un sub-paquete deba ser fraccionado nuevamente. [5][71] Cada host contiene módulos de operación los cuales se encargan de realizar el enrutamiento o la fragmentación del paquete. Se utiliza 4 mecanismos principales del uso del protocolo: - Tipo de servicio: El cual indica la calidad del servicio deseado. - El tiempo de vida: es una indicación de periodo de vida de un paquete. - Opciones: Son funciones de control necesarios o útiles en algunas situaciones pero innecesarias para las comunicaciones más comunes. - Suma de control de cabecera: Da una verificación de que la información al procesar el paquete se ha transmitido correctamente Direcciones IP Las direcciones IP, son una especie de etiqueta numérica que identifica a una interfaz de red. Normalmente los computadores o host están conectados entre sí mediante sus direcciones IP. Las direcciones IP del IPv4 constan de 32 bits divididos en 4 octetos. Además se suelen expresar en notación decimal. Los valores decimales en cada octeto pueden variar de 0 ( ) a 255( ), además cada octeto va separado de un punto (. ). Las direcciones de IPv4 están divididas en clases, donde las más utilizadas son las clase A, B y C. El cuadro 2.3 y la figura 2.28 son un pequeño resumen de las clases de dirección IP.

95 95 Figura 2.28 Clases de dirección IP [5] La figura anterior muestra lo que abarca cada una de estas clases de dirección, dando los rangos y ciertas particularidades de cada una de estas clases como por ejemplo los números de distinción, cantidad de redes y hosts que cada una puede albergar. En la cuadro 2.3 la información de esto es más detallada y especifica. Cuadro 2.3 Clases de dirección IP [70] Clase Rango N de Redes N de Host Máscara de Red Broadcast ID A x B x.x C x.x.x.255 D E Datos importantes: - La dirección es utilizada por las máquinas cuando están arrancando o no se les ha asignado dirección. - La dirección que tiene su parte de host a cero sirve para definir la red en la que se ubica. Se denomina dirección de red. - La dirección que tiene su parte de host a unos sirve para comunicar con todos los hosts de la red en la que se ubica. Se denomina dirección de broadcast.

96 96 - Las direcciones 127.x.x.x se reservan para pruebas de retroalimentación. Usada para pruebas. [5][71] Cabecera IP Figura 2.29 Encabezado IP [5] El encabezado o header IP, contienen las direcciones IP de las maquinas de origen y destino, las cuales son usadas por los conmutadores de paquetes y por los enrutadores para dar el tramo de red por donde se enviará el paquete. La figura 2.29 ilustra como es el encabezado del protocolo IPv4. Tal como se describió anteriormente el encabezado contiene información importante como lo es el tiempo de vida del paquete, la suma de verificación del encabezado, las opciones tipo de servicio y lo más importante, las direcciones de origen y destino. [5]

97 CAPÍTULO 3: Estándares 3.1 Estándares básicos referidos a MPEG ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Systems La norma ISO/IEC , da las especificaciones para conseguir la combinación de distintos flujos elementales (ES), en un solo flujo o stream, adecuado, para su efectiva transmisión o almacenamiento. La norma específica ciertos códigos o reglas para la semántica y sintaxis que los sistemas de codificación deben seguir. Además, permite la decodificación sincronizada de los buffers en un amplio rango de condiciones de recuperación y recepción. Los sistemas de codificación de los flujos se representan de dos formas: transport stream (TS) y program Stream. Cada uno optimizado según sus diferentes aplicaciones (ver 2.4.2), proporcionando la sintaxis requerida para su codificación, sincronización de la decodificación y presentación de la información de video y audio, asegurando que los buffers en los decodificadores no sufrirán overflow ni underflow. La información se codifica con una sintaxis de time stamps o marcas de tiempo, donde se tendrán tanto para la decodificación y presentación de los datos codificados de audio y video y otras marcas para datos en sí. Ambos tipos son multiplexados en un flujo orientado a paquetes. La figura 3.1 es una figura simplificada de la figura 2.16 (ver 2.4.2), donde se observa la multiplexación de los flujos elementales de audio y video. 97

98 98 Figura 3.1 Especificación ISO/IEC [100] Como ya se vio en la sección 2.4.2, las codificaciones del video y el audio son empaquetadas en paquetes PES, para luego ser empaquetados en paquetes de transporte y combinarse con los flujos de datos e información del sistema para así formar el transport stream o el program stream (Ver sección 2.4.2). Además, la norma da las pautas para el manejo, envío y combinación de las tablas de datos PSI. [100] ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Video El estándar ISO/IEC , está ligado con los estándares ISO/IEC (apartado 3.1.1) e ISO/IEC (apartado 3.1.3), pero, hace énfasis a las consideraciones de codificación, decodificación, transporte y almacenamiento del flujo de video. El estándar se basa en la manipulación del flujo de video como datos informáticos que pueden ser almacenados, transmitidos (por canales de radiodifusión) y recibidos por redes existentes y futuras.

99 99 La norma está destinada a ser genérica, al funcionar para una amplia variedad de aplicaciones, bit-rates, resoluciones, calidades y servicios. La sintaxis del flujo de bits se realiza de forma simple, dividiéndola en subconjuntos conocidos como perfiles y niveles para facilitar el intercambio de flujos de bits entre distintas aplicaciones. Un perfil es un subconjunto del flujo de bits total. Los perfiles imponen ciertos límites en su sintaxis, sin embargo, sí alguna aplicación lo requiere, puede realizar una variación en el funcionamiento de codificadores y decodificadores. En muchas aplicaciones, esto es tanto impráctico como costoso. Por tal razón, se definen restricciones impuestas a los valores de sintaxis del flujo de bits, que se conocen como niveles. Entre otras consideraciones tomadas por la norma, se encuentra la definición del proceso de la compresión temporal: compensación de movimiento, los vectores de movimiento, macrobloques, la codificación de video entrelazado, formatos de crominancia y la reducción de la redundancia espacial. Además, da soporte a las transmisiones con bitrates variables y contantes, accesos aleatorios, decodificación escalable, edición del flujo de bits, y funciones especiales como el fast forward playback (adelantar video a mayor velocidad), fast reverse playback (retroceso rápido), slow motion (cámara lenta), pausa y fotografía de la imagen. Algunas de las aplicaciones que cubre esta norma son: CATV, BSS, DSB, DTTB, EC, ENG, FSS, HTT, IPC, ISM, MMM, NCA, NDB, RVS, SSM. [101]

100 3.1.3 ISO/IEC Information Technology Generic coding of moving pictures and associated audio information: Audio 100 El estándar ISO/IEC , está ligado con los estándares ISO/IEC (apartado 3.1.1) e ISO/IEC (apartado 3.1.2),donde se especifica la codificación del flujo de audio. Según la especificación, la codificación se realiza siguiendo el diagrama de la figura 3.2 Figura 3.2 Codificación de audio digital [102] Las muestras de audio son introducidas al codificador. El bloque de mapeo crea un filtro y una representación sub-muestreada del flujo de audio entrante. Estas muestras mapeadas son llamadas muestras de sub-banda (Layer I y II) o muestras de sub-banda transformadas (Layer III). El modelo psicoacustico crea un conjunto de datos (difieren según la implementación del codificador) para controlar la cuantificación y la codificación. El cuantificador y el codificador crean un grupo de símbolos provenientes de las muestras mapeadas de entrada y dependientes del sistema de codificación. Por último, el bloque de empaquetado de tramas, ensambla este flujo con los datos que proceden de otros bloques y les añade información adicional si es requerida (por ejemplo bits para la corrección de error).

101 101 La decodificación se realiza siguiendo el diagrama en la figura 3.3 Figura 3.3 Decodificación del audio digital [102] El flujo de bits ingresa al desempaquetado de tramas donde se revisa y aplica la codificación de errores. El flujo de datos se extrae de los paquetes para recuperar varias piezas de información. El bloque de reconstrucción, se encarga de recuperar la versión cuantizada de los conjuntos de muestras mapeadas. Y por último el mapeo inverso transforma esas muestras mapeadas en muestras PCM (Pulse-code-modulation). Cabe recalcar que la entrada del codificador y la salida del decodificador deben ser compatibles con los estándares existentes de PCM. El estándar permite frecuencias que van desde: 16, 22.05, 24, 32, 44.1 y 48KHz, las cuales son escogidas según el modelo psico-acústico que da el audio de mejor calidad. Aporta soporte para multicanal, dando la posibilidad hasta 3/2 (3 salidas, 2 surround loudspeker channel) multicanales de audio y un canal opcional LFE (Low Frequency Enhanced), dando un total de 6 canales, comúnmente usados por Dolby en Dolby 5.1. Cada canal podrá transmitir audio de alta calidad, además de bit-rates bajos. Por último, ofrece el soporte para multilenguaje, particularmente para aplicaciones HDTV, funcionalidad estéreo de multicanales y programas bilingües. [102]

102 ISO/IEC Information Technology Coding of audio-visual objects Part 10: Advances Video Coding El estándar ISO/IEC , especifica cómo debe ser la codificación del códec AVC (Advanced Video Coding) permitiendo al video ser manipulado de manera flexible como un flujo de bits que pueden ser almacenados en distintos dispositivos de multimedia, transmitido (sobre redes existentes y futuras) y distribuido en canales de difusión existentes o futuros. Es diseñado para ser genérico debido a la amplia variedad de aplicaciones (almacenamiento, comunicación en tiempo real, transmisión de televisión, etc.), bit-rates, resoluciones, calidades y servicios que se pueden servir con el estándar. Basa su sintaxis en perfiles y niveles (ver definición en 3.1.2), entre los que podemos encontrar: - Baseline Profile - Constrained Baseline Profile - Main Profile - Extended Profile - High Profile - High 10 Profile - High 4:2:2 Profile - High 4:4:4 Predictive Profile - High 10 Intra Profile - High 4:2:2 Intra Profile - High 4:4:4 Intra Profile

103 103 - CAVLC 4:4:4 Intra Profile La representación del código es diseñada para una alta capacidad de compresión. Todos los perfiles que se estipulan en este estándar utilizan codificación con perdidas exceptuando dos, los cuales realizan codificación sin pérdidas (CAVLC 4:4:4 Intra Profile y High 4:4:4: Predictive Profile). El termino de codificación Intra, en el nombre de alguno de los perfiles antes mencionados, significa que utiliza varios modos para la predicción espacial, de este modo explota las dependencias estadísticas de pixeles continuos en la señal fuente para una sola imagen. En contra parte, la codificación Inter utiliza motion vectors, basada en bloques, para explotar las dependencias estadísticas temporales entre diferentes imágenes. Aparte, la norma proporciona la sintaxis para codificación predictiva, codificación de video entrelazado, progresivo y cuando se requiere reducir redundancias espaciales y temporales. [103] 3.2 SMPTE SMPTE RP227: VC-1 Bitstream transport encodings El estándar describe los protocolos para el transporte del Video elementary stream conforme a los diferentes perfiles del formato VC-1 (Simple, Main and Advanced) establecidos en el estándar SMPTE 421M. El estándar no describe la sintaxis de bitstream, si no que describe la encapsulación y señalización del flujo de bits de video usando el protocolo de transporte respectivo en el transport stream y el program stream.

104 104 Se basa en la capa de sincronización especificado por sistemas MPEG-2, la cual es el mecanismo fundamental para asegurar la sincronización de audio, video y datos, pero el estándar no concierne a la aplicación del los flujos elementales de audio ni de datos. Entre otras cosas, describe tanto el empaquetado del flujo elemental (PES) para los diferentes perfiles del VC-1, además de la señalización de esta mediante las tablas PSI. El estándar es compatible con el estándar ISO/IEC [104] 3.3 SCTE La SCTE (Society of Cable Telecommunication Engineer), es una organización creada para brindar soluciones técnicas, desarrollando estándares, certificaciones e información referente a la industria de las telecomunicaciones por cable. [9] Este apartado describirá algunos de los estándares más importantes y utilizados para la transmisión datos por cable, así como normas de verificación de estos flujos de bits SCTE 142: Transport stream verification La especificación SCTE 142, provee una metodología para describir un criterio de conformación del TS, describiendo los elementos y parámetros que deben ser verificados para la correcta emisión provenientes de las normas SCTE 54 (ver 3.3.2), ATSC A/53-3 (ver ) y A/65 (ver 3.4.5). Además, define los límites de los parámetros a verificar, produciendo que la severidad del error dependa de la desviación de los valores de los estos. Estas desviaciones son generadas por variedad de interacciones e interrelaciones que suceden entre los diferentes componentes del TS.

105 105 Figura 3.4 Punto de análisis de la norma SCTE 142 [105] Como se observa en la figura 3.4, el punto de análisis se encuentra en el intervalo entre la salida del multiplexor y el modulador QAM y la salida de este y la entrada al desempaquetador. El estándar divide los problemas en el TS en 7 tipos: - Tablas PSI (PAT y PMT) - Tablas Out-of-Band - Tablas In-Band - Tablas PSIP (MGT, VCT, etc.) - Modelo de tiempo y buffering - Consistencia - Errores Generales Además, cada tipo de error posee una severidad de error la cual se encuentra estandarizada según el rango de gravedad. Estas severidades de error son:

106 106 - Transport Stream Off Air (TOA): la estación esta fuera de aire, por lo tanto los daños en el TS son severos. La ausencia de bits de sincronización es un ejemplo de este error. - Program Off Air (POA): el servicio principal (canal virtual) es defectuoso al punto de estar fuera de aire para los receptores diseñados. - Component missing (CM): uno de los componentes señalizado como PSIP o PMT no se encuentra y por tal razón no se puede decodificar. - Quality of Service (QOS): los parámetros están fuera de las especificaciones y por tal razón los receptores producen salidas defectuosas o incorrectas. - Technically Non-Conformant (TNC): estos errores violan lo especificado en las normas pero logran ser visualizados. Son corregibles. [105] SCTE 54: Digital video service multiplex and transport system standard for cable television El estándar SCTE54 describe las especificaciones del subsistema de transporte y el multiplexado en un sistema de televisión por cable, basado en un TS con paquetes de longitud definido (paquetes de transporte MPEG-2) y optimizado para aplicaciones de entrega de televisión digital. Es totalmente compatible con diferentes normas que se basan en las especificaciones dadas en el ISO/IEC La figura 3.5 describe la estructura del transmisor y el receptor de la señal de televisión digital. El bloque de transmisión es el encargado de la codificación y

107 multiplexado de los ES. El receptor es el encargado de recuperar estos flujos elementales para la decodificación individual de la aplicación. 107 Figura 3.5 Vista del sistema de transmisión de una señal de video digital [106] La multiplexación se realiza en dos capas. La primera se encarga de formación de los paquetes de transporte, los cuales son formados a partir de los paquetes PES. Por otra parte, la segunda capa es la multiplexación de estos paquetes y la formación del transport stream. Cabe resaltar que entre estos flujos multiplexados se incorporan las tablas de datos PSI, donde se transporta la información que identifica a los programas y los componentes de estos. Este estándar entre otras cosas, también menciona las diferentes restricciones que se deben aplicar a codificadores y decodificadores; así como las normativas para los datos PSI. [106] SCTE 43: Digital video systems characteristics Las características de la transmisión de televisión digital por cable, están especificadas en este documento. Toma como base el estándar ISO/IEC (ver

108 3.1.2), adaptándolo para transmisión de video digital por cable, introduciendo restricciones y consideraciones no incluidas en el estándar antes mencionado. Al Main Profile del ISO/IEC se le agregan distintas restricciones, como por ejemplo, la secuencia del encabezado, la codificación de la imagen o al encabezado de la imagen. Al flujo de bits también se le agregan ciertas características o consideraciones tales como la codificación de los datos de NTSC en el VBI, codificación de subtítulos avanzados para DTV y subtítulos ocultos de NTSC y transmisión de datos descriptivos. [107] SCTE 127: Carriage of vertical blanking interval (VBI) data in North American digital television bit stream. La norma SCTE 127 especifica el mecanismo para transportar la información analógica del VBI en flujos de bits de televisión digital comprimida utilizando el formato del Transport Stream MPEG-2. El fin de transmitir los datos VBI de forma digital es generar la forma de onda apropiada para la inserción dentro del VBI de la salida de video de NTSC, estipulada en el estándar SMPTE 170M o de algún dispositivo de recepción. La norma estipula el manejo de los datos analógicos transmitidos en el VBI en los dispositivos digitales como lo son los codificadores de video, decodificadores (Set-top boxes) y televisores digitales. Sin embargo, no estipula como debe ser el transporte de los datos analógicos de la línea 21 (CEA 608, ver 3.7.1), ni tampoco los subtítulos ocultos para televisión digital (CEA 708, ver 3.7.2). Los indicadores de los datos VBI se encuentran en la tabla PMT de los datos PSI. [108] SCTE 157: VC-1 Video system and transport constraints for cable television 108

109 109 Esta norma define las restricciones en cuanto al transporte de video comprimido en formato VC-1 para televisión por cable en un sistema MPEG-2 multiplex (uno o múltiples programas). Otras aplicaciones de esta norma son: time-shifting (PVR/DVR), flujos transmitidos a STBs específicos (VoD, unicast, multicast) y opciones para splicing, entre otras. Sin embargo especificaciones individuales de estas no se encuentran en este documento. [109] SCTE 30: Digital program insertion splicing API El estándar SCTE 30 establece una Aplication Program Interface (API, ver ), para elaborar un método de comunicación entre servidores y dispositivos de empalme para la inserción digital de programas (DPI, ver 4.1.2) en el flujo MPEG-2. Esta API es lo suficientemente flexible para poder conectar uno o más servidores a uno o más splicers. La figura 3.6 describe como se realiza la configuración de la conexión entre un servidor y un splicer. Figura 3.6 Inserción mediante una interfaz API: Un servidor/ Un splicer [110] No obstante, la norma permite tener varias configuraciones de servidores y splicers conectados, tal como lo describe la figura 3.7

110 110 Figura 3.7 Conexión de varios servidores y splicers usando interfaz API [110] El splicer, es un dispositivo multiplex consta de dos canales de entrada y uno de salida, el cual es el encargado de realizar la unión de varios flujos elementales (audio, video, datos), dando un punto de empalme optimo. El modelo de referencia de esta API tiene uno o más splicers con una o más entradas (multiplex), el cual separa lógicamente los canales en el multiplex y presenta estos canales a un switch con la capacidad de mapear cualquier entrada a cualquier canal de salida. La configuración inicial indicará que el programa principal vaya directamente a la salida del canal, mientras que el servidor será el encargado de dirigir el dispositivo de empalme para que realizar el cambio del canal primario al canal insertado y después del cambio el splicer puede cambiar a otro canal de inserción, siempre y cuando el mensaje cue (ver ) sea recibido. [110] 3.4 ATSC A/53: ATSC Digital television standard El estándar de televisión digital ATSC A/53, describe las características de televisión avanzada (ATV). Este estándar se divide en 6 partes, las cuales explican con detalle las especificaciones de los parámetros del sistema.

111 Part 1: Digital television system La parte 1 del estándar A/53 es una introducción a este, donde se declaran y definen conceptos básicos que se utilizan en el desarrollo de las demás partes, tales como: modulación VSB, subsistema de transmisión RF y declaración de constantes, mnemónicos operadores y métodos. El estándar de televisión digital describe un sistema diseñado para transmitir tanto video de calidad, como audio y datos auxiliares sobre un canal de 6 MHz. El sistema puede entregar un rendimiento de 19Mbps en los 6MHZ de transmisión terrestre o 38Mbps en los 6MHz de televisión por cable, resolución 5 veces mayor que la de NTSC y reducir en un factor de 50 el bit-rate, explotando al máximo las capacidades de compresión de audio y video. Figura 3.8 Sistema de televisión digital ATSC [114] La figura 3.8 muestra el diagrama de bloques utilizado en televisión digital ATSC, describiendo las pautas para forma la señal a transmitir, desde la etapa de compresión, pasando por la multiplexación, modulación, transmisión y su definitiva recepción. [114]

112 Part 2: RF/transmission system characteristics Esta parte describe las características del sistema de la transmisión RF, conocido como el subsistema VSB, donde se describen dos métodos de modulación utilizados: método de transmisión terrestre (8-VSB) y el método de alta razón de datos (16-VSB). El método de modulación 8-VSB, entrega el TS con un bit-rate de hasta 19.39Mbps en un canal de transmisión de 6MHz. Se define por un conjunto de elementos requeridos (main profile) y varias combinaciones de elementos opcionales. Además, los datos importantes de video transmitidos, son protegidos mediante el sistema principal FEC (Forward Error Correction) y son enviados usando secuencias de formación obligatorias. Las mejoras opcionales, adicionan capas de código FEC a los datos antes de ser enviados por una vía con restricciones de 8VSB conocida como 8VSB mejorada o Enhanced 8-VSB (E8-VSB). Dos modos opcionales utilizan el E8-VSB para tener mayor inmunidad a los problemas del canal. Varias opciones de razón de código, así como la asignación del payload entre el E8- VSB y el dato del Main Mode son seleccionables en valores discretos definidos. Esto quiere decir que el sistema ofrece sub-modos opcionales de operación dando una mejor razón de transferencia de datos. Figura 3.9 Main Mode de ATSC [114]

113 113 Una vista rápida del modo en que trabaja la transmisión de ATSC con el Main Mode se observa en la figura 3.9. El flujo MPEG-2 ingresa en el sistema y es aleatorizado. Seguidamente se procesa en el FEC, donde se le agregan 20 bytes de paridad a cada paquete mediante el codificador de Reed Solomon. Otras formas de protección se agregan mediante el interleaving y el codificador Trellis. Al sobrepasar el FEC, se conforman los Data Frames con los paquetes de datos, agregando los Data Segment Sync y el Data Field Sync para sincronización. El Data Segment Sync conformado por 4 símbolos, es insertado en la transmisión al inicio de cada segmento que está conformado por 832 símbolos (paquetes de 188 bytes más 20 de paridad), mientras que el Data Field Sync, sincroniza los campos. Cada campo se conforma de 313 segmentos. El uso de estos se observa en la figura 3.10 Figura 3.10 Data segment sync y data field sync ATSC [114] El segundo método, modulación 16-VSB conocido como el método para alta tasa de datos, es un método de transmisión robusto (28.3dB umbral señal-ruido) para la tasa de datos del payload de Mbps. El método es muy similar al método de transmisión terrestre. Ambos sistemas contienen un piloto, un data segment sync y data field sync. La principal recae en el número de niveles de transmisión (8 16), además, el uso del trellis code y el filtro de rechazo de interferencia NTSC presentes en el sistema terrestre.

114 El sistema 16-VSB se puede observar en la figura 3.10 y se puede ser comparado con el sistema 8-VSB ilustrado en la figura [114] 114 Figura 3.11 Main Mode 16 VSB [114] Part 3: Service multiplex and transport subsystem Esta parte da la especificación del subsistema de transporte y la multiplexación de los diferentes flujos elementales. La sintaxis y la semántica se basan en la especificación ISO/IEC , adicionándole ciertas restricciones y condiciones, tales como, la secuencia del encabezado, formatos de compresión, secuencia de extensiones, encabezado de imagen y la codificación de la imagen. Aparte, se añaden características propias al flujo de bits más allá de lo que proporciona el flujo de bits de MPEG-2. [114] Part 4: MPEG-2 Video system characteristics Esta parte del estándar, describe el flujo de video tomando varias consideraciones del estándar ISO/IEC , añadiéndole ciertas restricciones aplicadas a la transmisión en el sistema ATSC. Esto se debe a que los algoritmos de compresión deben ser conformados por la sintaxis del Main Profile de ese estándar, dado que este perfil es el

115 115 encargado de dar los límites para los parámetros permitidos. Adicionalmente, el flujo de bits también tendrá ciertas restricciones y consideraciones que le son añadidas. Aparte, se especifica los formatos de video de entrada posibles en este sistema, Estos formatos de entrada se observan en la tabla 3.1, donde los formatos de compresión deben derivarse de estos estándares. [114] Cuadro 3.1 Formatos de entrada de video ATSC [114] Estándar de Video Líneas Activas Muestras Activas/Líneas SMPTE 274M SMPTE 296M ITU-R BT Part 5: AC-3 Audio System Characteristics La parte 5 está dedicada a describir el manejo de los flujos de audio en el sistema de televisión digital de ATSC. El sistema de compresión debe conformarse con el estándar de audio digital AC-3 especificado en la norma A/52 (ver 3.4.2) como el formato de audio para ATSC. La norma específica entre otras cosas, la frecuencia de muestreo en 48KHz, el bitrate para distintos tipos de servicio, modos de codificación, los niveles de dialogo, el rango de compresión dinámica y el tamaño del buffer de audio. Adicionalmente, se describen las características de las interfaces de codificación de audio de entrada y salida. Así como la especificación completa del servicio principal de audio y de los asociados. [114]

116 Part 6: Enhanced AC-3 Audio System Characteristics La parte 6 describe el sistema de audio de modo robusto que deberá ser transmitido sobre el TS-E (transport stream enhanced) descrito en la parte 3 de esta misma especificación. Este TS-E es el flujo de transporte transmitido o entregado mediante el E8- VSB descrito en la parte 2 de este estándar. Se incluyen limitaciones en el bit-rate a 448Kbps para frames de 1536 muestras debido a que el tamaño de los frames deben ser menor o igual a 1792 bytes. [114] A/52: ATSC Audio Compression Standard (AC-3 y E-AC-3) El estándar A/52 del sistema de televisión digital ATSC, describe cómo se maneja el audio en este sistema mediante el formato AC-3. Este algoritmo de compresión puede codificar hasta 5.1 canales de una señal de origen de representación PCM en un flujo serial de bits con razones de datos variando entre 32 y 640 Kbps. El termino fraccional 0.1 de los canales antes mencionados se refiere a un canal de ancho de banda fraccional destinado a transmitir solo señales de frecuencias bajas. La compresión digital de audio es rentable si da beneficios económicos al realizar la reducción de la información digital. Típicamente, es utilizado en transmisión satelital y terrestre, en las cuales, se entrega el audio sobre conductores metálicos u ópticos, o almacenado en dispositivos magnéticos, ópticos o semiconductores. Un ejemplo típico de la transmisión de audio es el que se observa en la figura 3.12.

117 117 Figura 3.12 Ejemplo de AC-3 [115] Aquí se puede observar como la señal PCM entra en el codificador AC-3 por los 6 canales, la cual, necesita más de 5Mbps (6 canales x 48KHz x 18 bits = 5.184Mbps) pero es convertido en un flujo serial de bits de 384Kbps a la salida del codificador. El equipo de transmisión convierte ese flujo de bits en una transmisión RF el cual se direcciona al satélite; en este momento el ancho de banda y la potencia se ha reducido en un factor de 13. La señal que se recibe, se demodula y se recupera el flujo de bits de 384Kbps para ser decodificados y enviados por los 6 canales. La figura 3.13 explica el funcionamiento de codificador de AC-3 Figura 3.13 Codificador AC-3 [115] El primer paso al realizar la codificación es transformar la representación de audio de una secuencia de muestras de tiempo PCM a una secuencia de bloques de coeficientes

118 118 de frecuencia. Bloques sobrepasados de 512 muestras son multiplicados por una ventana de tiempo y transformados en el dominio de la frecuencia. Debido a estos bloques sobrepasados es que cada entrada PCM es representada por dos bloques secuenciales transformados, por esta razón cada bloque contiene 256 coeficientes de frecuencia. Cada coeficiente de frecuencia individual es representado por un binario exponencial y una mantisa. Los exponentes se codifican para formar lo que se conoce como el spectral envelope, el cual se utiliza para conocer la cantidad de bits para usar en la codificación de cada mantisa. La mantisa cuantificada y el spectral envolope forman un frame de AC-3. [115] A/72: Video system characteristics Part 1: Video system characteristics of AVC in ATSC La parte 1 del estándar A/72 describe las restricciones de codificación en la compresión de video en formato AVC para ATSC. Muchas de las consideraciones de esta parte del estándar son referidas al estándar A/53 parte 3. El algoritmo de compresión AVC, se ajusta a la sintaxis del Main Profile o al High Profile siendo este ultimo el perfil que pone los límites permitidos de codificación para los parámetros. Entre las consideraciones que describe esta parte del estándar, están las posibles entradas de video y las distintas restricciones o consideraciones añadidas a cada uno de los perfiles descritos en AVC. El flujo de bits se adaptara tanto a las resoluciones SD de los perfiles Main y High, como para las resoluciones HD de estos perfiles. [116]

119 Part 2: AVC transport subsystem characteristics Esta parte del estándar, describe como se lleva a cabo el transporte del flujo de video en formato AVC descrito en la parte 1 y siguiendo la sintaxis y semántica descritas en el estándar A/53 parte 3. Se describe el uso del Transport Stream de MPEG-2, especificando especialmente la utilización de los puntos de acceso definidos en la parte 1 del estándar A/52. La parte 2, agrega restricciones referidas tanto a la entrega de los datos PSI, la formación de los paquetes PES y conformación de los campos de adaptación o Adaption Field para datos catalogados privados. [117] A/78: Transport Stream Verification Este documento describe los parámetros que deben ser verificados en el ATSC Transport Stream según los estándares A/53 y A/65 para una correcta emisión. Estos estándares describen el comportamiento de los contenidos y las características del Transport Stream, donde se puede observar un sin número de interacciones e interrelaciones entres varios componentes, necesarias para lograr una adecuada presentación del contenido. Sin embargo para tener una adecuada sintonización y representación de los programas se debe seguir ciertas consideraciones que se describen en este documento. La norma abarca las consideraciones necesarias en la conexión entre la emisión del multiplexor y el modulador 8VSB tal como se observa en la figura 3.14.

120 120 Figura 3.14 Punto de análisis del Flujo de ATSC [118] Esta práctica, identifica cada problema presentado en el TS por tipos y divide cada error distribuyéndolos por categorías: - Tablas PSI (PAT y PMT) - Tablas PSIP (MGT, VCT, etc.) - Modelo de tiempo y buffering - Consistencia - Errores Generales Además, cada uno de estos tipos de errores posee una severidad de error, las cuales son iguales a los dados por el estándar SCTE 142. [118] A/65: Program and System Information Protocol (PSIP) for Terrestrial Broadcast and Cable La norma A/65 de ATSC define un estándar para el transporte de datos SI (System Information) y datos de guía de programación compatible con la multiplexación de flujo de bits acordados en el estándar ISO/IEC Se define el protocolo de transmisión de las tablas de datos que contienen cada paquete en el Transport Stream. Este protocolo es conocido como PSIP.

121 121 Al tratarse de dos sistemas de transmisión diferentes, cada uno contendrá tablas aplicables solo a ese tipo de sistema de transmisión o en algunos caso a los dos. Por ejemplo las tablas que son transmitidas mediante es el sistema de transmisión terrestre son: - Terrestrial Virtual Channel Table (TVCT): define los programas insertados en el Transport Stream. - Master Guide Table (MGT): define el tipo, identificador de paquete y versión de las demás tablas PSIP. - The Rating Region Table (RRT): define el sistema TV parental guideline (información de rating). - System Time Table (STT): define la fecha y la hora. Por otra parte, para transmisión por cable tenemos otras tablas: - The Cable Virtual Channel Table (CVCT), define los canales virtuales insertados en el TS. - MGT: igual que en el sistema terrestre. - RRT: igual que en el sistema terrestre. - STT: igual que en el sistema terrestre. El estándar en sí, específica como se forman, se transportan y se insertan en el Transport Stream, además de cómo es la sintaxis de la información que contienen. [119]

122 DVB ETSI TS : Implementation guidelines of video and audio coding in broadcasting applications based on the MPEG-2 TS El estándar ETSI TS de DVB, es una guía para la codificación de audio y video en sistemas de transmisión satélite, terrestre y por cable, cubriendo tanto SDTV como HDTV. El documento abarca la codificación y decodificación usando un sistema de capas MPEG-2, además de codificación de video y audio definidos en los estándares ISO/IEC , ISO/IEC e ISO/IEC La norma específica los requerimientos mínimos de los parámetros básicos que un sistema receptor decodificador integrado (IRD) debe tener. Estos sistemas IRD se dividen en 3 dimensiones: - 25 o 30 Hz dependiendo del framerate soportado. Esto debido a que existen países en los que su televisión analógica utilizaba un framerate de 25Hz. - SDTV o HDTV - Con interfaz digital o línea base (baseline). Estas definiciones quieren decir que a lo largo del documento los sistemas IRD se especificaran por ejemplo: 25Hz SDTV Baseline IRD. DVB tiene distintas características que son mencionadas en este documento, como por ejemplo, el hecho de que la imagen fuente, la imagen codificada y la imagen desplegada en la pantalla necesariamente no tienen que ser idénticas.

123 123 Otra característica importante se da en que el TS puede contener material de programas que pueden ir ligados a más de un sistema IRD. Un ejemplo de esta última característica es que un SDTV IRD puede decodificar y desplegar la señal como imágenes de resolución SD, mientras que del mismo TS un HDTV IRD puede decodificar y desplegarlo como HD. En materia de video, el estándar define las restricciones y consideraciones referentes al Main Profile para SDTV y HDTV, en los niveles Main y High respectivamente, además, distintos tipos de IRD como los son el 25Hz SDTV, 25Hz HDTV, 30Hz SDTV y 30Hz HDTV. Se especifica, la particularidad de que las imágenes de SDTV pueden tener una razón de aspecto de 4:3, 16:9 o 2,21:1; mientras que en HDTV solo varían entre 16:9 o 2,21:1 siendo la primera de estas la de mayor demanda. En cuanto a audio, el estándar especifica las frecuencias de muestreo soportadas (32, 44,1 y 48KHz), soporta las codificaciones MPEG Layer I y II, decodificación multicanal de audio y el formato AC-3 pero como opcional. [120] ETSI EN : Specification for the carriage of vertical blanking information (VBI) data in DVB bit streams La norma especifica el manejo de la transmisión de datos que tienen que ser transcodificados dentro del intervalo vertical (VBI) de video MPEG-2 decodificado, permitiendo así la transmisión de datos VBI y unidades de datos EBU teletext usando el mismo ES. Este estándar posee muchas similitudes con el estándar SCTE127 (ver 3.3.4) definido anteriormente. El dato transferido tiene la intención de ser transcodificado dentro

124 124 del VBI de un canal acompañante de un programa MPEG-2. Sin embargo también es posible transmitir y transcodificar los datos VBI por si solos, consiguiendo así, que un decodificador obtenga los datos directamente sin pasar por un intermediario. Para este método el dato transferido utiliza los paquetes PES privados y sincroniza los datos del VBI con ayuda del canal acompañante. Existen diferentes restricciones y consideraciones que se deben tomar en cuenta a la hora de realizar esta acción. El estándar también define como se debe conformar la información SI de los datos. [121] ETSI TR : Measurement guidelines for DVB systems El estándar provee una guía para las mediciones en sistemas satélite, cable, terrestre y relacionados con televisión digital. Las recomendaciones de este documento pueden ser utilizadas en: - Establecer bancos de pruebas o equipo de laboratorio para probar hardware de televisión digital. - Establecer a estos instrumentos parámetros apropiados - Obtener resultados que puedan ser comparados con otras pruebas establecidas - Obtener bases para una comunicación eficiente. [122]

125 ITU ITU-R BT.601: Parámetros de codificación de televisión digital para estudios con formatos de imagen normal 4:3 y de pantalla ancha 16:9 Antes conocido como CCIR 601, establece un formato para televisión de definición estándar (SDTV), especialmente para codificación del video entrelazado con razón de aspecto de 4:3 y 16:9, basándose en el empleo de una señal de luminancia y dos componentes de crominancia (YCbCr). Además, permite la interoperabilidad de los 3 estándares de sistemas de video analógico de televisión (NTSC, PAL, SECAM), El estándar es referenciado si es una señal analógica de video por componente, el cual, incluye las señales de sincronización e intervalos de borrado. Independientemente del framerate, la frecuencia de muestreo para la luminancia estipulada por la norma es de 13.5MHz y para cada una de las dos componentes de crominancia es de 6.75MHz. Aparte, especifica una frecuencia de muestre opcional de 18MHz para la luminancia para los sistemas de 16:9 que requieran de un intervalo horizontal proporcionalmente más alto. La figura 3.15 muestra un ejemplo del formato y temporización de la señal digitalizada, tomando como relación una señal de video analógico. [123][124] Figura 3.15 Temporización de la señal digitalizada con relación a la señal analógica según ITU-R BT601 [124]

126 3.6.2 ITU-R BT.709: Valores de los parámetros de la norma de HDTV para la producción e intercambio internacional de programas Esta recomendación ITU, es una ampliación de la recomendación BT.601 (ver 3.6.1) estandarizando el formato para televisión en alta definición (HDTV) con una razón de aspecto de 16:9. Se recomienda su uso para la producción de programas HDTV y propone el uso de sistemas para su intercambio internacional. Aparte, la norma describe los parámetros que se utilizan en sistemas de video entrelazado en HDTV, 1125/60/2:1 y 1250/50/2:1 (también conocidos como 1035i30 y 1152i25), describiendo mediante tablas las diferentes características y valores que deberán tomar cada uno de estos sistemas. Estas tablas describen entre otras cosas los valores a tomar en la conversión optoelectrónica, las características de la imagen, características de la exploración, el formato de la señal y su representación analógica y digital entre otras cosas. La segunda parte de la recomendación, especifica las características y parámetros de sistemas de HDTV actuales y futuros de 1080i y 1080p, con formato de imagen común (CIF) de pixel cuadrado, para frecuencia de imagen de 60, 50, 30, 25 y 24Hz. Se definen las imágenes para captura progresiva (P) entrelazada (I). Además, se mencionan los medios de transporte de las imágenes según su captura (I o P), sin embargo, una imagen de captura progresiva también puede ser transportada como cuadro segmentado progresivo (PsF). La tabla 3.2 muestra un resumen de los tipos de imagen y transporte que el estándar especifica. [125] Cuadro 3.2 Sistema, imagen y transporte ITU-R BT.709 [125] Sistema (Nomenclatura) Captura (Hz) Transporte 60/P 60, progresiva Progresivo 126

127 30/P 30, progresivo progresivo 30/PsF 30, progresivo cuadro segmentado 60/I 30, entrelazado entrelazado 50/P 50, progresivo progresivo 25/P 25, progresivo progresivo 25/PsF 25, progresivo cuadro segmentado 50/I 25, entrelazado entrelazado 24/P 24, progresivo progresivo 24/PsF 24, progresivo cuadro segmentado ITU-R BT.500: Metodología para la evaluación subjetiva de la calidad de la imagen de televisión La recomendación ITU-R BT.500, se desarrolla por la necesidad de un estándar para realizar las mediciones de la calidad de la imagen de televisión. Especifica formas para los correctos métodos de prueba, escalas de calificación y condiciones de visualización utilizadas en los laboratorios para la correcta evaluación de la calidad de la imagen. Incluye ciertos protocolos al realizar las evaluaciones como lo son el aportar la descripción de cada uno de los equipos y materiales utilizados en dicha evaluación. Se describen dos tipos de evaluaciones subjetivas: las que establecen el funcionamiento de los sistemas en condiciones optimas también llamadas evaluaciones de calidad y las que establecen el mantenimiento de la calidad en condiciones no optimas relacionadas a la emisión y transmisión, se conocen como condiciones de deterioro. [126] ITU-T J.83: Sistemas digitales multi-programa para servicios de televisión, sonido y datos por distribución de cable La recomendación ITU-T J.83 abarca la definición de la estructura del framing, la codificación del canal y la modulación de señales digitales de múltiples programas de

128 128 televisión, sonido y datos distribuidos por redes de cable (CATV), posiblemente en divisiones de frecuencia multiplex. Tiene como objetivo garantizar que los operadores y diseñadores de CATV tendrán la información que necesitan para mantener las redes satisfactoriamente. Se especifica que la entrada del sistema deberá ser una capa de transporte MPEG-2, dado que esto provee alguna capacidad de inserción de datos auxiliares en el canal, el cual puede ser usado para acomodar los servicios interactivos. Esta recomendación provee especificaciones para los 4 sistemas de televisión por cable estipulados en ITU-T. Estos sistemas son: a) Derivado de la transmisión de televisión por satélite en Europa. Características del sistema: basado en MPEG-2, QAM de niveles 16-, 32- o 64QAM y extensible hasta 128- y 256QAM. b) Se utiliza con transmisión por satélite. Trabaja con modulación QAM de 64 y 256 niveles. La modulación, entrelazado y codificación se basa en estudios realizados en Norteamérica. c) Sistema basado en transporte multiplexado MPEG-2 garantizando la interoperabilidad de redes ISDN, radiodifusión digital y multimedia empaquetada. Similar al sistema a) excepto en que solo se basa en modulación 64-QAM y una canal de 6MHz. d) Este sistema se deriva de la transmisión terrestre en Norteamérica, basado en transporte multiplexado MPEG-2 y modulación 16-VSB para transmisión digital. [127]

129 CEA CEA-608: Line 21 data services La norma es una especificación para la representación de los datos que son insertados en la línea 21 de la señal de video NTSC sirviendo como guía técnica para diseñar y proveer equipos de codificación y/o decodificación, con el objetivo de producir material con datos codificados insertados en la línea 21 del VBI de la señal de video de la NTSC. Un dato común que es insertado en la línea 21 son los subtítulos ocultos o close caption, por tal razón, se recomienda a todos los proveedores de este servicio, seguir con este estándar. El estándar define 4 canales de subtítulos ocultos, de tal modo que un programa puede contener subtítulos en 4 idiomas diferentes. Se transmiten dos canales de CC por cada campo del frame; en cada canal existen dos flujos de datos, uno lleva los subtítulos y el otro texto (no es muy utilizada). La figura 3.16 muestra como se realiza la transmisión en cada campo, observando además, que el campo 2 transmite aparte del CC y el texto, los XDS (Extended Data Service). Figura 3.16 Transmisión de Close Caption en la línea 21 [128] Estos datos XDS, son opcionales y pueden incluir entre otras cosas el nombre del canal, cartas de llamada del canal, nombre del programa, valoración de lenguaje ofensivo y categoría de programa entre otros.

130 CEA-708: Captions for digital Video El estándar CEA-708, específica la inserción de los CC en una señal de video digital, continuando con el tradicional texto que se insertaba en la línea 21 de la señal de televisión analógica, con la diferencia, de la inclusión de conjuntos de caracteres latín, fondos descargables multicolor, tipos de texto, más canales de imagen y otras características adicionales. Estos subtítulos se introducen en la secuencia de video MPEG-2 en 3 diferentes lugares del flujo de datos: el picture user data (datos de usuario de imagen) y las tablas PMT y EIT (Event Information Table) de los datos PSI. La figura 3.18 ilustra la inserción de los CC en el flujo de televisión digital. Figura 3.17 Inserción de los subtítulos en un flujo DTV [129] Como se observa en la figura, los subtítulos son transmitidos en los user data bits, los cual contienen el DTVCC Transport Channel, el cual, está diseñado para transportar tanto los subtítulos de la norma 708 como los subtítulos analógicos de la línea 21 para mantener la compatibilidad. El DTVCC Service Directory es transmitido en la tabla PMT y ocasionalmente cuando se trata de cable en el EIT. Los paquetes van en el orden de las imágenes y deben ser reorganizados al igual que las imágenes. [129]

131 AES AES3: Digital Audio Standard El estándar AES3 (también conocido como AES/EBU), es utilizado para el transporte de señales de audio digital sin compresión entre dispositivos diseñados para este fin. Justamente, el estándar da la especificación de una interfaz recomendada para la transmisión digital en serie de dos canales de datos de audio digital periódicamente muestreado y representados linealmente en una compleja radiodifusión, hasta una distancia de unas pocas centenas de metros. Aunque la frecuencia de muestreo en este estándar no es relevante debido a que la señal del reloj se recupera mediante codificación BMC 22, fue diseñado principalmente para codificación de audio PCM y para cualquier formato DAT con frecuencias de muestreo de 48KHz (recomendada y utilizada en radiodifusión) o cualquier formato CD con frecuencia de muestreo 44,1KHz. El flujo de bits consiste en frames de 64-bit, transmitidos una vez por cada tiempo muestreado. Estos frames se dividen en dos subframes (cada uno de 32-bits), los cuales son conocidos como los canales A (left) y B (right). Cada canal es usado para transmitir los bits de datos individuales o la información de sincronización. Cada uno de los bits que conforman la palabra del subframe se conoce como time slot, donde, 24 time slots son dedicados a los datos de audio, sin embargo, solo 20 de estos bits son normalmente usados. Por último, 192 frames consecutivos son agrupados en bloques de audio. Cierta

132 información de estado es transmitida una vez por bloque. Sí por ejemplo, se tiene una frecuencia de muestreo de 48KHz, habrán 250 bloques de audio por segundo (48000/192=250). En cuanto a las conexiones físicas, tres especificaciones son de uso común: conductores de 110 Ω de par trenzado con conector XLR utilizado en conexiones profesionales. - 2 conductores de cable coaxial de 75Ω con conector RCA utilizado en consumidores de audio. - Fibra óptica generalmente de plástico o vidrio con conector F05 también usado en consumidores de audio. [130] AES3id/SMPTE276M: Transmission of AES3 Formatted Data by Unbalanced Coaxial Cable. Segundo estándar publicado por AES. Especifica una interfaz de transmisión de datos con formato AES3 por cable coaxial desbalanceado. Utiliza cable coaxial de 75 Ω, con conectores RCA, con una longitud máxima de 300m. Los conectores machos se utilizan en los extremos del cable y los hembra en la entrada y salida del equipo. Tiene la misma secuencia de bits digital que en AES3, por lo tanto son compatibles y se pueden conectar equipos que trabajen con cualquiera de estas interfaces. Lo único que se necesita para realizar esta conexión es realizar las conversiones físicas y eléctricas necesarias. [131] 22 Biphase Mark Code, BMC. Es un tipo de codificación binaria donde al flujo de datos se le hace una marca para garantizar que al menos hay una transición en el canal entre cada bit de datos

133 CAPÍTULO 4: Diseño e integración El objetivo principal de crear un flujo de transporte con contenido digital, es transportarlo a un destino final el cual será un consumidor. Para llevar a cabo esta función, los datos contenidos en el flujo de transporte deberán pasar por procesos de codificación, multiplexación y modulación antes de ser transmitido. Distintas características técnicas se desprenden de estos puntos de procesamiento de la señal digital. Este capítulo ahonda en detalles específicos, dando énfasis en una transmisión de televisión digital por cable. Entre otras cosas, se explicarán los tipos de codificación, métodos utilizados para llevar a cabo la multiplexación de los flujos elementales, características de una transmisión digital como la inserción de anuncios, detalles de la modulación, transmisión RF de las señales, así como las características de las rutas en los que se transmite la señal. 4.1 Codificación y multiplexación Multiplexación estadística A lo largo de este documento se ha hablado la etapa de la multiplexación como la etapa donde se realiza el entrelazado de los flujos de audio y video dentro de uno solo, conocido como el Transport Stream. Este bitstream (de bit-rate variable) llevara en su contenido los flujos de audio y video, en conjunto, con los datos de información que serán transmitidos hasta el aparato receptor del consumidor. El software encargado de producir este flujo de transporte se llama multiplexor estadístico por división de tiempo (STDM). Este sistema permite la transferencia de varios canales de audio y video simultáneamente sobre la misma frecuencia del canal. 133

134 134 El concepto del funcionamiento de la STDM es muy similar a la multiplexación por división de tiempo (TDM), pero es más eficiente en la utilización del ancho de banda. TDM permite a varios usuarios o dispositivos de entrada transmitir o recibir datos simultáneamente, asignando a cada dispositivo un monto fijo de tiempo en uno de los canales disponibles en el cable o la línea. Por otro lado, STDM analiza las estadísticas relacionadas con la carga de trabajo de cada dispositivo y con este valor determina la cantidad de tiempo para cada dispositivo. Las estadísticas más utilizadas por el método STDM son: - El data rate máximo de cada dispositivo de entrada en Kbps - El factor de trabajo (duty) de cada dispositivo. La comunicación orientada a paquetes utilizada por el flujo de transporte de MPEG- 2, facilita el uso de STDM, debido a la que los paquetes son divididos a un tamaño constante, donde la identificación del programa (PID) identifica el número de canal. [73][77] Digital program insertion (DPI) La inserción digital de programas (DPI), es una técnica utilizada para introducir en el flujo principal, distintas señales locales, tales como, anuncios y señales de alarma de emergencias (SCTE18). El crecimiento de los contenidos de la televisión digital trajo consigo la necesidad de introducir anuncios publicitarios en la transmisión del flujo principal, debido a la rentabilidad económica que esta práctica genera para los proveedores de televisión digital,

135 135 dando además, la capacidad de ofrecer un mayor grado de seguridad, mayor control regional en la inserción de programas y mayor gestión de aplicaciones basadas en servidores. El sistema DPI, es instalada como una capa superior de un sistema existente de cuetone o tonos de llamada, permitiendo el uso de inserción de anuncios analógicos y digitales en estos tiempos de transición. Un sistema DPI está integrado por distintos componentes: los sistemas de almacenamiento, sistemas de compresión, el sistema de programación y manejo de los programas, redes de distribución y un splicer (contenido analógico) o multiplexor (contenido digital). Estos se pueden observar en la 4.1 Figura 4.1 Sistema básico DPI [74] El sistema de almacenamiento es el componente principal. Los anuncios se almacenan ya sea en cintas magnéticas (formato analógico) o en servidores de video (formato digital) después de ser comprimido. El sistema de compresión consiste en codificadores que comprimen los anuncios en un bit-rate constante (CBR) de alta calidad.

136 136 El sistema de programación y manejo se encarga de crear controles de tiempo para los anuncios, organizar los anuncios en el servidor y crear paquetes de anuncios. Aparte, funciones de facturación y manejo también pueden ser incluidas. El multiplexor, permite a los anuncios insertarse en la programación digital sin problemas, asegurando una entrega suave e ininterrumpida de los contenidos. Para llevar a cabo esta operación, DPI, requiere que el flujo principal tenga marcadores de inserción (cue tones) cumpliendo de esta forma con el estándar SCTE35 (ver ). En el sistema analógico el dispositivo empalmador o splicer, se encarga de realizar eficientemente la sustitución de la señal entre el flujo principal y el programa publicitario. La implementación de este sistema es más costosa que la inserción digital y genera más problemas en cuanto a la calidad de la imagen. Como se dijo anteriormente, los anuncios publicitarios son almacenados con un bitrate constante, generando problemas al sistema de inserción, ya que esté deberá tratar con contenidos de diferentes tasas de datos, por esta razón, el sistema DPI debe tener la capacidad de ajustar el bit-rate del contenido local para que se ajuste al programa original en un proceso conocido como Transrating. [74] Codificación de VBR o CBR Cuando codifica un flujo bits, esta se puede realizar de dos formas: con bit-rate variable o contante. Un bit-rate constante (CBR) es una codificación realizada a un flujo de bits utilizando un valor constante en tasa de bits. Es útil para flujos de datos multimedia con

137 137 capacidad de canal reducida, donde lo importante es la tasa de bits máxima y no la promedio, además, la velocidad de codificación es elevada. Sin embargo, no es la mejor opción si el flujo de bits es destinado a almacenamiento, ya que, la mayoría de las veces estos flujos son de mayor tamaño que los codificados con bit-rate variable. Su utilización comúnmente es CD-A (Estándar CD) y Dolby Digital. En video es poco utilizado, debido a las mejoras que proporcionadas por la codificación con tasa de bits variable en cuanto almacenamiento y manejo del flujo de bits. [76] La contraparte, es la codificación con bit-rate variable (VBR), la cual consiste en que un flujo de bits, sea comprimido o no, tendrá un número de bits variable cada segundo. Tiene la ventaja de lograr una mejor relación calidad espacio que en CBR. Cuando se habla de video, un sistema de codificación de VBR, consiste en asignar a escenas simples un bajo bit-rate, mientras que a escenas más complejas (ej. explosiones, luces) se asigna un bit-rate elevado. De igual manera funciona en flujos de audio donde a partes de canciones muy complejas se asigna una tasa de bits elevada mientras que a partes como el silencio se le asigna un bit-rate muy bajo. El bit-rate final es calculado como un promedio de los bit-rates codificados. Tiene ciertas desventajas, como por ejemplo, la velocidad de codificación, problemas de hardware compatible o problemas al ser transmitido vía dial-up o conexión a internet debido a que estas tienen límites en la capacidad de transmisión, la cual, el flujo codificado puede sobrepasar si no se agregan restricciones en la codificación. MP3, WMA, AAC, MPEG-2, MPEG-4 parte 2, MPEG-2 Parte 10 son formatos de audio y video que utilizan normalmente un bit-rate variable en su codificación. [75][5]

138 Close Loop y Open Loop Cuando se utiliza un sistema de multiplexación estadística por división de tiempo existen dos configuraciones para la conexión de los codificadores: en lazo abierto o cerrado. En una configuración de lazo cerrado, cada codificador reporta la complejidad del video a una aplicación de control, la cual, calcula e indica al codificador el bit-rate adecuado para la codificación. Los codificadores en un sistema de lazo cerrado deben hacer flexible el bit-rate del flujo de video de tal forma que se le pueda realizar un seguimiento óptimo de la complejidad y ofrecer mayor eficiencia. Caso contrario, la configuración lazo abierto, los multiplexores estadísticos, crean un flujo a partir de streams previamente comprimidos, ofreciendo un sistema de compresión limitado. Aparte, es limitado en cuanto a la reducción del bit-rate de entrada, siendo menos eficiente que el sistema de lazo cerrado. La figura 4.2 ilustra una configuración a lazo cerrado, donde se observan los codificadores conectados en una línea bidireccional de tal forma que el controlador pueda informar del bit-rate adecuado a cada uno de ellos. Figura 4.2 Sistema de codificadores en lazo cerrado [77]

139 Calidad de video El objetivo principal de transmitir una señal de video, es que el receptor pueda ver el contenido de forma coherente y de buena calidad. La calidad de video es el parámetro, tomado como una medida formal o informal, de la degradación del video transmitido en comparación con la señal original. Una señal de video, normalmente almacenada en una base de datos y distribuido por redes de comunicación, está sujeta a la inserción de distorsiones durante la adquisición, compresión, procesamiento y transmisión. Un ejemplo claro son las técnicas de compresión con pérdidas, las cuales, son ampliamente utilizadas para reducir el ancho de banda de la transmisión de video pero a su vez degrada la calidad de la imagen en la reducción de datos. Problemas con los canales de transmisión como los canales wireless (susceptibles a los errores) y una comunicación basada en paquetes con problemas de retardo en la entrega de estos, puede ser otros ejemplos de errores e inserción de distorsión a la señal de video. Es importante para un sistema de video poder realizar y cuantizar esta degradación, consiguiendo con este dato poder mantener, controlar y si es posible mejorar la calidad del video. Existen dos tipos evaluación a la calidad del video: la evaluación objetiva y la subjetiva, las cuales se explicaran con más detalle en el capítulo 5 en la sección [138] 4.2 Cabecera y controlador de cabecera de televisión digital En un sistema de televisión digital, la cabecera o headend es la instalación principal donde se procesa, comunican y se integran los servicios de televisión y cable modem hacia

140 140 los consumidores. Normalmente, es un edificio o una gran estructura electrónica rodeada de un vallado de seguridad, que contiene además antenas de satélite para la recepción de programas entrantes. Las señales que se envían a los consumidores se conocen como los flujos de bajada o downstream. Además, siguiendo tendencias actuales, en especial el sistema pay per view, los consumidores pueden enviar señales a la cabecera en flujos llamados de subida o upstream. Básicamente, la cabecera se compone de 5 partes principales: - Adquisición del contenido - Codificación (opcional) - Gestión digital del contenido - Multiplexación - Modulador QAM (ver Apéndice A) La codificación es opcional en sistemas que han realizado la total transición de analógico a digital, sin embargo, la mayoría de los operadores de cabeceras mantienen la estructura del sistema para la recepción de las señales analógicas, debido a que aún existen una amplia demanda de consumidores. La cabecera recibe las señales de los programas, ya sea por aire (vía satélite o por antenas de televisión local), de servidores o directamente de la estación de televisión (conector de fibra óptica). Esta señal de video es multiplexada, junto con el contenido de los sistemas interactivos (ej. video bajo demanda e IPG) almacenados en distintos servidores. Todas las señales se manejan bajo interfaces seriales asíncronas (ASI) o GigE.

141 141 La señal multiplexada, pasa a un modulador (generalmente QAM), el cual asigna a la señal del programa a un canal de frecuencia para su transmisión. Seguidamente, todas las señales de los canales pasan por un combinador, el cual, los transmite por la red HFC. Durante todo este proceso, los sistemas de manejo de la red, se encuentran monitoreando la estructura interna de la cabecera, así, como los servidores de acceso condicional colocan las restricciones a los flujos. La figura 4.3 describe la estructura básica de un headend de televisión digital. [3][79][48][80] Figura 4.3 Cabecera de televisión digital [79] Por otra parte, el controlador de cabecera (headend controller), también conocido como cable modem termination system (CMTS), es tal vez el dispositivo mas importante en el sistema de cabecera, permitiendo proveer al consumidor el acceso a internet a través de una red de cable conectada a un enrutador IP. El controlador interpreta los datos que recibe de los clientes individualmente y realiza un seguimiento de los servicios ofrecidos a cada uno de ellos. Se encarga de la modulación de los datos recibidos a través del internet para que el equipo de cabecera

142 142 pueda enviar estos datos a un suscriptor específico. Además, demodula los flujos upstream en paquetes TS-MPEG2, para que los dispositivos dentro de la cabecera procesarlos. Justamente, una de las mayores responsabilidades del controlador de cabecera es colocar el ancho de banda del upstream basándose en las solicitudes de la red interactiva y en las políticas de calidad del QoS. La figura 4.5 describe en forma resumida el manejo de los flujos upstream y downstream por parte del CMTS dentro de la cabecera. [78][3] Figura 4.4 Operación del CMTS dentro de la cabecera [78] 4.3 Transmisión RF y Modulación QAM Un parámetro critico, en la transmisión de video por cable es el ancho de banda. Cada tecnología (DSG, Tru2way, DOCSIS) utilizada por los operadores de cable, consideraciones en cuanto a los paths o rutas, para la transmisión de los flujos de subida o bajada.

143 143 Este apartado, se propone a explicar cada una de estas consideraciones de las tecnologías más utilizadas actualmente, así como explicar técnicas que permiten aprovechar mejor el ancho de banda en la transmisión Node splits o divisiones de nodos Las divisiones de nodos o node splits, es una técnica utilizada cuando se posee limitaciones o restricciones con el ancho de banda, llevada a cabo mediante la duplicación de estos, reduciendo a la vez el ancho de banda a la mitad. El principal propósito de un nodo de fibra es convertir las señales ópticas (ondas de luz) a señales de radiofrecuencia (RF) y viceversa, transmitidos por el conductor coaxial, además; las compañías de cable acostumbran instalar un nodo por cada vecindario (aproximadamente 500 casas). En la mayoría de los casos, la división de un nodo solo requiere la adición de otro llamado nodo de duplicación, siendo en este donde se lleva a cabo la división. El flujo que sale de la cabecera, entra al nodo, donde, dos fibras ópticas están conectadas. Una lleva las señales downstream desde la cabecera y la otra las señales upstream hacia esta. El nodo de duplicación (dos fibras ópticas extras) es activado por el CMTS y empalma el flujo transmitido, cuando la demanda de los consumidores supera la capacidad del nodo originalmente instalado. Esta operación permite que cada uno de los nodos (original y duplicación) tenga el doble de su capacidad. Los nodos de duplicación son previstas realizadas por las compañías de cable aprovechando que en la instalación de fibra óptica lo costoso es la mano de obra y no el

144 144 cristal, por lo que era rentable dejar unas cuantas fibras oscuras (cristales no activados) pensando en una futura utilización.[3][81][82] Consideraciones en la ruta de retorno o Return Path El return path o ruta de retorno, es el camino que conecta la instalación de usuario con la cabecera transportándolos flujos de subida o upstream. El aprovechamiento de la red para el manejo del ancho de banda upstream es un tema de gran importancia para los operadores de cable, ya que en la mayoría de los casos, las aplicaciones destinadas a transmitirse en el flujo de subida (video bajo demanda, video interactivo y pay-per-view, entre otras), no requieren un amplio ancho de banda ni son constantes en el tiempo. Esta sección describirá las consideraciones a tomar en el diseño e implementación de la ruta de retorno en los sistemas que utilizan la especificación DOCSIS y su extensión DOCSIS set-top gateway Ruta de retorno DOCSIS Una red con especificación DOCSIS, utiliza modulación QPSK, 16-QAM o 64- QAM para la transmisión de datos en el flujo de subida, con un ancho de banda pequeño (400KHz a 6.4MHz) y un rendimiento total de Mbits/s por canal. Debido al poco ancho de banda requerido para el envío de datos, las compañías de cable no necesitan nodos individuales para su manejo. Por tal razón, se utiliza una configuración conocida como muchos a uno (many-to-one), la cual hace referencia a que muchos flujos de subida se direccionan a un solo nodo. Sin embargo, esta configuración no

145 145 está libre de problemas debido a que el ruido (de los amplificadores) e interferencias se acumulan en los flujos direccionados a la cabecera. Para contrarrestar este problema, se acostumbra instalar más puertos de flujos upstream en la cabecera, normalmente, en una relación 4:1 (4 puertos de subida: 1 de bajada), aparte, el diseño conlleva un enfoque de múltiple acceso en el dominio del tiempo y de la frecuencia (F/TDMA), formato programable de modulación, tasa de símbolos (symbol rate) y capacidad de corrección de errores. [83] Ruta de retorno DSG Al ser DSG (ver sección 2.8.9) una extensión de DOCSIS, utiliza las mismas consideraciones proporcionadas por esta especificación, sin embargo, orienta su funcionamiento a conexión de STBs. La gran diferencia, se encuentra en que la norma DOCSIS solo admite conectividad de dos caminos (cable modem STB), referenciando, el hecho de que un cable modem al no conseguir conectar un canal de flujos upstream, se reinicia en busca de nuevos canales. Si el error persiste el cable modem reinicia su dirección MAC 23 y realiza nuevas búsquedas de canales de bajada o downstream. Sin embargo, este comportamiento no es apropiado para un STB, ya que este debe adquirir sus datos fuera de banda aun si el canal upstream presenta problemas. Por esta razón, la especificación DSG incluye un modo de operación de una vía (solamente downstreams). Este modo de operación entra en funcionamiento cuando el cable modem

146 146 no consigue conectar un canal de flujo de subida. En este instante, el STB, entra en un estado de recepción única de downstreams, sin embargo, se continúa intentando la adquisición del canal upstream periódicamente. [68] [84] Consideraciones en la ruta de avance o forward path. El forward path o ruta de avance, es la vía de comunicación principal que va desde la cabecera hasta el usuario, transportando los datos proporcionados por el operador de cable televisión, datos y servicios) y contenidos en los flujos de bajada o downstream. Esta sección describirá las consideraciones a tomar en el diseño e implementación de la ruta de avance en los sistemas DOCSIS y su extensión DSG DOCSIS ruta de avance o forward path La red DOCSIS implementa, para la transmisión RF de los datos, modulación 64 o 256-QAM, con un sistema robusto y eficiente, debido a que sin la utilización de un camino FEC (Forward Error Correction), genera una tasa de error (BER) 1x10-8 y una relación señal-ruido (SNR) de 28dB de aproximadamente. Los sistemas se basan en canales modulados de 6 MHz (estipulado por las normas de DTV) y un ancho de banda (mayor en comparación a la ruta de retorno) variando entre 50 y 550 MHz en transmisión analógica y de 550 a 870MHz en digital. Todo en combinación, permite un rendimiento total de 38 Mbits/s efectivo por canal. El espectro de frecuencia utilizado en la especificación DOCSIS se observa en la figura Dirección MAC, es un identificador de 48 bits que corresponde a la dirección física de un dispositivo de una red Ethernet.

147 147 Figura 4.5 Espectro de frecuencias DOCSIS [85] A diferencia de la ruta de retorno, la cantidad de datos transmitidos es abundante, por lo tanto, se utiliza una configuración conocida como uno a muchos (one-to-many), la cual hace referencia a que cada flujo downstream es transmitido a varios nodos aprovechando al máximo el ancho de banda requerido. [85] Aparte, debido a la cantidad e importancia de los datos transmitidos, la mayoría de los sistemas DTV (ATSC o DBV) implementan una etapa de corrección de errores. FEC (ver figura 4.6), encargada de proporcionar mayor seguridad. Normalmente, está etapa contiene: - Codificador Reed Solomon (RS): proporciona protección a los flujos entrantes, permitiendo altas ganancias de codificación (bajo S/N) con buenas tasas de código. Agrega 16 bytes a cada paquete de transporte, con el fin de aumentar la protección adicionando redundancia de información. - Interleaving o entrelazador: Da mayor robustez a los datos ante la aparición de errores. - El aleatorizador o randomizer: asegura una distribución uniforme de los símbolos para colaborar en la transmisión y recepción con éxito. Ayuda

148 148 más que todo al demodulador en las operaciones de transporte y obtención del reloj. - Codificador Trellis (TCM): otorga redundancia al símbolo [3] Figura 4.6 Ruta de avance DOCSIS [85] Ruta de avance DOCSIS Set-top Gateway Como se explicó anteriormente, el sistema DSG es una extensión DOCSIS, y por lo tanto mantiene las principales características de esta (ancho de banda, rango de frecuencias, rendimiento total, entre otros), enfocándose a la transmisión de datos fuera de banda hacia los decodificadores, mediante una portadora DOCSIS modulada digitalmente, utilizada para el servicio cable modem. El operador de cable será el encargado de decidir si los datos se envían mediante por flujos de cable modem DOCSIS existentes o por downstreams de CMTS dedicados para decodificadores DSG. [68] [84]

149 CAPÍTULO 5: Monitoreo y gestión de rendimiento Una de las principales responsabilidades de los proveedores de un servicio de video digital es garantizar la correcta emisión de este desde la fuente hasta su receptor. Es por esto que los operadores son los encargados de realizar distintas pruebas a la señal procesada y transmitida para su efectiva recepción. Este capítulo menciona algunas pruebas realizadas al Transport Stream MPEG-2, además, se explican los sistemas de monitoreo, la interfaz utilizada y los distintos métodos realizados para su efectiva operación. Por último, se mencionará la gestión del rendimiento (performance management) de una transmisión de video digital basándose en el modelo FCAPS (Fault, Configuration, Account, Performance, Security). Cabe destacar la diferencia entre sistema de monitoreo y la gestión de rendimiento en un sistema de televisión digital. El primero es un sistema de recopilación y almacenamiento de datos de estado del sistema, mientras que el segundo es una serie de métodos para garantizar el cumplimiento de las funciones de forma consistente y efectiva en el procesamiento y transmisión del video digital. 5.1 Practicas de prueba Pruebas de calidad de video Tal como se explico en la sección 4.1.5, la calidad de video es un parámetro de medición efectuado al video digital, para ver el grado de degradación resultante en la transmisión. Además, en esta sección se menciono dos tipos de evaluación de la calidad de video, estos son la evaluación subjetiva y la evaluación objetiva. 149

150 150 La evaluación subjetiva es la más fiable, debido a que son los seres humanos los receptores finales de la imagen. Esta evaluación se basa principalmente en el MOS (Mean Opinion Score o Puntuación de la principal opinión), el cual es una medida subjetiva de la calidad, que se consigue a partir de mostrar secuencias de video a un grupo de espectadores (especialmente expertos en el tema del video), donde, se registra y promedia su opinión para evaluar la calidad de la secuencia. Sin embargo, posee ciertas desventajas, como la incomodidad, costo y velocidad en la mayoría de las aplicaciones. El estándar ITU-R 500 especifica varios métodos de evaluación subjetiva. Por otra parte la evaluación objetiva, tiene como objetivo diseñar métricas que puedan predecir la calidad de video de forma automática. Esta evaluación se puede aplicar de 3 formas: - Para monitorear la calidad de la imagen. - Como benchmark para los algoritmos de procesos de imagen y video. - Optimizar los algoritmos y el ajuste de los parámetros en un sistema de procesamiento de video. Las métricas de una evaluación objetiva se clasifican según su la disponibilidad de la señal original de video (libre de distorsión o de calidad perfecta), la cual en muchas ocasiones se utiliza como imagen de referencia con la señal distorsionada. Cuando la imagen de referencia es accesible se conoce como una evaluación totalmente referenciada (FR, fully-reference). Muchas veces estas imágenes de referencia no son accesibles, por esto es conveniente desarrollar métodos de medición para evaluar la calidad de video a ciegas.

151 151 La evaluación a ciegas o sin referencia (NR, non-reference), es una tarea difícil de realizar, sin embargo, los observadores pueden por lo general realizar la evaluación sin necesidad de una referencia. Es utilizada cuando se conoce el método de codificación del video. Existe un tercer tipo de evaluación, el cual, se realiza cuando la señal original no está disponible en su totalidad. En este caso, algunas funciones son extraídas del video original y son transmitidas al sistema de medida de calidad como una señal de información con el fin de ayudar a evaluar el video distorsionado. A esto se le conoce como reducción de referencia (RR). Se utiliza principalmente cuando se posee un ancho de banda limitado donde el video original no puede ser transmitido. En la actualidad las métricas de calidad más utilizadas son las de MSE (Mean Square Error) y PSNR (Peak Signal-Noise Ratio), las cuales se muestran en las ecuaciones 5.1 y 5.2 respectivamente. MSE 1 N N i 1 ( x i y ) i 2 (5.1) 2 L PSNR 10log (5.2) MSE Donde, N x i y i L Número de pixeles en la imagen. i-esimo pixel en el video original i-esimo pixel en el video distorsionado. rango dinámico de los valores de lo pixeles. (ej. Señal monotónica de 8 bits/pixel, L tiene un valor de 255).

152 152 Cuando se requiere evaluar el rendimiento de una métrica objetiva de calidad de video, se lleva a cabo el cálculo de la correlación entre las puntuaciones objetivas y los resultados de las pruebas subjetivas MOS. [138] Pruebas a guías de programación interactivas (IPG) Como todo sistema interactivo, la programación interactiva también debe ser ponerse a prueba a menudo para observar su correcto funcionamiento y ver que se proporcione la interactividad requerida entre el programa y el usuario. La mayor parte de estas pruebas son de manera subjetiva. Las pruebas subjetivas que se realizan al IPG normalmente son las siguientes: - Cuadricula de programas: el cual es el componente que despliega el calendario de los programas. En esta prueba se comprueba el funcionamiento de las flechas del control para el desplazamiento de y dentro de la cuadricula. - La búsqueda temática: se comprueba la búsqueda de los canales por los tipos o temática. - Menú de canales: El usuario debe escoger un tipo de canal y el sistema despliega en pantalla un conjunto de canales, los cuales, comparten la misma temática del canal escogido. Dependiendo del sistema EPG o IPG que se utilice, estos pueden proporcionar aplicaciones adicionales como la información del clima, calendarios o hasta información de la bolsa de valores la cual la interfaz de usuario debe ser probada de manera subjetiva.

153 153 Además, el sistema IPG o EPG es un sistema almacenado independientemente, por lo tanto, se debe tener un sistema de monitoreo que este dándole seguimiento al correcto funcionamiento y desempeño del sistema. [137] Pruebas a señales EAS (Emergency Alert System) Las pruebas EAS son pruebas en tiempo real, las cuales aseguran que el enlace entre los generadores de las señales y las emisoras funcione correctamente. Se realizan dos tipos de prueba a los sistemas de alertas de emergencia (EAS): Las pruebas semanales requeridas o Required Weekly Tests (RTW) y las pruebas mensuales requeridas o Required Monthly Tests (RMT). La prueba RTW es programada por la operadora de cable, a cualquier día y hora de la semana, además, no está obligada de transmitir algún tipo de mensaje grafico o de sonido para probar el sistema, aunque algunas lo proporcionan por cortesía al espectador. Antes de efectuar la evaluación, todos los canales, tanto los conectados directamente al cable coaxial o los que se encuentra en las cajas de cable, son re-direccionados a un canal digital el cual es recibido en todos los niveles del servicio. Seguidamente, la señal de prueba es transmitida desde la cabecera local o desde la oficina principal del sistema. Las nuevas tecnologías permiten a los DVR y al sistema VoD ser interrumpidos cuando se va a realizar esta evaluación. Al finalizar la prueba, el canal se mantiene en pantalla unos 5 o 10 segundos adicionales, antes de que la programación se restablezca.

154 Por otra parte, las pruebas RMT, son generalmente realizadas por las estaciones principales o agencias EAS del estado, mediante transmisiones de cable y radiodifusión. Algunos RMT son transmitidos por el servicio meteorológico nacional. Al realizar la prueba RMT, la programación normal se suspende, generalmente en las pausas comerciales y se emite un mensaje grafico normalmente con la siguiente leyenda La siguiente es una prueba mensual del sistema nacional de emergencia. Solo es una prueba. Seguidamente la ráfaga de la cabecera SAME es enviada, a veces, seguida de la señal de atención. Una señal de voz se envía, normalmente, con el contenido siguiente: Esto es una prueba mensual de coordinación de las estaciones de transmisión en su área. El equipo que rápidamente puede advertir en situaciones de emergencia se está probando. Si esto hubiera sido una emergencia real, como una advertencia de tornado o una advertencia de tormenta severa, los mensajes oficiales seguirían el tono de alerta. Esto concluye la prueba del Sistema de Alertas de Emergencia. Por último se envía otra ráfaga SAME, dando el final del mensaje (EOM, End Of Message). [112] 5.2 Practicas de Monitoreo Sistemas de Monitoreo Sistema de soporte de operación u Operations Support System (OSS) El sistema de soporte de operaciones, es un conjunto de sistemas informáticos utilizado por los proveedores, ingenieros, arquitectos y demás personas vinculadas en dar

155 155 servicios de telecomunicaciones, para suministrar soporte en las operaciones de un sistema de red. Entre otras cosas se encarga de: el manejo de sistemas de redes (NMS), gestión de fallos y problemas, entrega de servicios, cumplimiento de servicios, servicios de garantía, atención al cliente, elementos de la red y facturación de servicios. La figura 5.1 presenta el esquema resumido de un OSS. Figura 5.1 Plataforma OSS [86] La mayoría de los sistemas OSS han sido diseñados basándose en la red de manejo de telecomunicaciones (TMN, telecommunication management network). [86] Network Management System (NMS) El sistema de administración de red (NMS), forma parte de los servicios suministrados por el sistema de soporte de operaciones y consta de un sistema de hardware y software que trabaja en conjunto con el objetivo de administrar una red. Se encarga entre otras cosas de: realizar el inventario de la red, monitorear el estado correcto del funcionamiento de los dispositivos y alertar de impactos al rendimiento del sistema.

156 156 Diversos protocolos se implementan en el sistema. Uno de los más utilizados es el Simple Network Management Protocol (SNMP, ver ), el cual se encarga de recolectar la información administrativa requerida por los dispositivos conectados a la red. Cuando se presenta un inconveniente en la red, el software, se encarga de la identificación de un problema, localizar la fuente y solucionarlo. Para este fin, genera tablas estadísticas de cada dispositivo con los problemas padecidos y las soluciones realizadas efectivamente por si las fallas se vuelven recurrentes. [87] Element Management System (EMS) Los sistemas de manejo de elementos, son aplicaciones dedicadas al monitoreo y seguimiento de los elementos de red (NE, Network Element) sobre la capa de manejo de elementos de red (NEL, Network Element Layer) en el modelo de referencia de telecomunicaciones (TMN). Un EMS maneja uno o más de un tipo especifico de elementos de la red. Normalmente, maneja las funciones y capacidades de cada NE pero no maneja el tráfico entre ellos dentro de la red. Para el manejo del tráfico, el EMS se comunica con el NMS para que este se encargue. La figura 5.2 ilustra lo antes comentado, donde se puede observar el dispositivo de manejo EMS, comunicándose en un extremo con el manejador de red (grupo de servidores) y en el otro extremo con los elementos de la red como lo son las laptops conectadas vía wireless, teléfonos IP u otras aplicaciones wireless

157 157 Figura 5.2 Red EMS [89] Una EMS provee los fundamentos para implementar una arquitectura OSS que habilita al proveedor de servicios conocer las necesidades de los usuarios para implementar rápidamente nuevos servicios, así como mejoras en la calidad de servicio. [89][88][3] Interfaces de monitoreo Simple Network Management Protocol (SNMP) El protocolo simple de manejo de red, es un método para interactuar con los dispositivos de red. Basa su funcionamiento en el protocolo de transporte UDP y se ubica en la capa de aplicación del modelo de referencia OSI. Su principal función es facilitar el intercambio de información de administración entre un dispositivo y la red permitiendo al supervisor corroborar el correcto funcionamiento y resolver problemas que puedan presentarse. Una red administrada utilizando el protocolo SNMP debe contar de 3 componentes primordiales: - Dispositivos de red: Un dispositivo administrado es un nodo de red que contiene un agente SNMP. Pueden ser enrutadores, servidores de acceso,

158 158 switches, bridges, hubs 24, computadores o impresoras y su principal función es recoger y almacenar información de administración la cual se pone a disposición de los NMP. - Agentes: son software de administración localizados en los dispositivos de red. Almacenan información de administración del dispositivo, tal como, memoria libre, numero de paquetes IP recibidos, rutas. Esta información es traducida a un formato compatible con SNMP. - Sistema de administración de red (NMS): Ejecuta aplicaciones de supervisión y control de los dispositivos administrados. Un funcionamiento típico del protocolo, se aplica, cuando uno o más equipos (NMS) tienen la tarea de manejar una red conformada por un grupo de host o dispositivos de red. Cada sistema manejado ejecuta todo el tiempo el software (agente), el cual transmite la información referente a cada dispositivo para su supervisión. [90] Application Programming Interface (API) La interfaz de programación de aplicaciones (API, por sus siglas en ingles), es un mensaje o lenguaje aplicada por un software para comunicarse con el sistema operativo o otro programa de control. Se conforma por una serie de funciones y procedimientos ofrecidos en una especie de biblioteca, los cuales funcionan como enlaces entre las dos aplicaciones comunicadas. 24 Hub o Concentrador, Dispositivo capaz de centralizar el cableado de una red y poder ampliarla.

159 159 La aplicación utiliza la API, para la abstracción de las funciones requerías para entablar la comunicación. Un ejemplo, es el dibujo de ventanas e iconos en la pantalla, dado que de esta forma los programadores se evitan el tener que realizar todo el trabajo sino que tienen una base de referencia en el comienzo de su trabajo. Una API puede ser: general, específica, dependiente del idioma o independiente del lenguaje. Una API general, es el conjunto completo que se incluye en bibliotecas estándar de un lenguaje de programación como C++ o Java-API. Las API específicas, abordan un problema o aplicación en específico como lo son: Google Maps API o Java-API para XML Web Services. Las dependientes del lenguaje, son más cómodas de usar, debido a que solo utilizan la sintaxis y elementos de un lenguaje de programación determinado. En contra parte, las independientes del lenguaje, como su nombre lo indica son escritos de tal forma que puede ser llamado y utilizado por varios lenguajes de programación. Con esto, se puede decir que las API actuaran tanto en lenguajes de programación orientada a objetos (C++, Java), modernos (Perl, Python, Ruby), de desarrollo web, de compartir contenido (redes sociales), así como, aplicaciones de protocolos. Además, se debe recalcar la diferencia entre una API y un protocolo. El protocolo define una manera estándar de intercambiar peticiones y respuestas a estas peticiones utilizando un transporte común, mientras que las API proporcionan las bibliotecas destinadas su utilización directamente, por tal razón, no se da un transporte sino simples llamadas a funciones. [91]

160 Extensible Markup Language (XML) XML es un formato de texto desarrollado por la W3C 25, el cual, consiste en un conjunto de normas de codificación de documentos en forma legible para una maquina. En otras palabras, no es un lenguaje en sí, sino más bien una forma de lenguajes para diferentes necesidades. Normalmente es utilizado en internet, sin embargo, no es de uso exclusivo de este, ya que es utilizado como estándar de intercambio de información estructurada en distintas plataformas, tales como, bases de datos, editores de texto, hojas de cálculo, entre otros. Muchas API don desarrolladas para accesar y procesar datos XML y algunas de estas se han estandarizado. Estas API se catalogan en: - API orientada a flujos: son accesibles desde un lenguaje de programación tal como SAX 26 o Stax (Streaming API for XML). Requieren menos memoria y algunas tareas se realizan con un recorrido lineal del documento, siendo más rápidas y simples que otras. - Tree-traversal API, accesible desde un lenguaje de programación por ejemplo DOM (Document Object Model). - Enlace de datos XML, proporciona una traducción automática entre el documento XML y el objeto del lenguaje de programación. - Declarativas de lenguajes de transformación como XSLT y XQuery [92] 25 World Wide Web Consortium (W3C), es un consorcio internacional queda recomendaciones al Worl Wide Web 26 Simple API for XML (SAX), es un léxico de un interfaz por eventos las cual lee un documento en serie y su contenido es reportado por devoluciones de llamada.

161 Artefactos Comunes Distintos artefactos o dispositivos son utilizados para realizar las pruebas y monitoreo de la señal, para corroborar el correcto procesamiento y transmisión. En el mercado se pueden encontrar distintas marcas de fabricantes, cada una con sus particularidades en cuanto a las aplicaciones de sus equipos de monitoreo MTS 100 MPEG Analyser Debido a que es necesario realizar una verificación en tiempo real de un flujo de transporte, el cual puede ser complicado si este contiene diferentes tipos de formatos de video, se requiere de un analizador de flujo de transporte MPEG para romper esa estructura compleja en una forma lógica de tal forma que el usuario pueda observar los detalles. Esta técnica es conocida como pruebas de tiempo diferido y puede ser utilizada para examinar el contenido de los time stamps, así como obtener información de las tablas PSI, entre otras cosas. El MTS 100 de Tektronix, puede crear, generar, adquirir y analizar un TS MPEG-2, permitiendo hasta 8 GB de almacenamiento de un TS. Puede utilizarse en especial para buscar errores de semántica y sintaxis, ver las tablas de asignación multiplex, ver las tablas CRC, la tasa de multiplexación, tablas de extracción (Tablas DVB), buscar errores de temporización en los PCR time stamps para errores de sincronización, además, permitir extraer flujos elementales, flujos de transporte y paquetes PES para su control. [93]

162 MSK 200 Digital TS Analyzer MSK 200 es un dispositivo analizador con la capacidad de abarcar el análisis de la transmisión RF, el correcto comportamiento de la interfaz digital asíncrona (ASI), el manejo del espectro y el TS MPEG-2, permitiendo la instalación, reparación y mantenimiento de sistemas profesionales de televisión por cable, satélite o terrestre. Figura 5.3 MSK 200 [94] Es utilizado tanto en laboratorios como en un sistema de cabecera controlado de forma remota y en medidas finales en una antena de un sistema de distribución. Permite mediciones de Modulation Error Rate (MER), Bit Error Rate (BER) y Signal Noise Rate (SNR), además, despliega en la misma pantalla tanto el espectro como la imagen transmitida tal como se observa en la figura 5.4 Figura 5.4 Analizador del espectro con la imagen para comparación [94]

163 163 Entre otras características, el analizador abarca espectros desde 5MHz a 3.1 GHz. Contiene un osciloscopio con memoria y analizador de las constelaciones para las modulaciones aplicadas por ejemplo 8-VSB, QAM hasta 256 niveles, 8PSK y COFDM. [94] SENCORE Digital Program Insertion Monitor Debido a que la inserción de programas o anuncios a la señal digital transmitida en una red de telecomunicaciones se ha vuelto una práctica rentable para los operadores de estas redes, se necesita un sistema de monitoreo para asegurar la correcta inserción de estos El monitor DPI de Sencore presenta una solución que continuamente analiza y registra los mensajes DPI. Analiza múltiples TS MPEG-2, realiza actividades de registro comprensivos con la norma SCTE35, además de monitorear la calidad del estos flujos de transporte. Además, permite una configuración basada en Web y contiene integrado un agente SNMP para la fácil integración dentro de un sistema existente de manejo de red. [95] Figura 5.5 SENCORE DPI monitor [95] 5.4 Gestión de Rendimiento FCAPS FCAPS (acrónimo de de Fault, Configuration, Accounting, Performance, Security), es el modelo de ISO para el manejo de la red de telecomunicaciones, definiendo los requerimientos básicos para el manejo distribuido de computadores. Muchos vendedores de

164 164 servicios de cómputo ofrecen implementaciones cliente-servidor de funciones FCAPS vía API (típicamente el protocolo SNMP). El manejo comprensivo de la infraestructura de tecnologías de información (TI) de una organización, es parte fundamental en el accionar del modelo FCAPS, debido a que los empleados y clientes dependen de las TI para realizar sus labores cotidianas. Por lo tanto, la disponibilidad y el desempeño son importantes por lo que los problemas deben ser solucionados rápidamente. En los apartados siguientes se explicara cada una de las gestiones en las que se basa el modelo FCAPS para su entera comprensión Fault Management El objetivo de la gestión de es reconocer, aislar, corregir y registrar las fallas que se presentan en las redes de telecomunicaciones. Para contar siempre con disponibilidad de la red, se realiza un análisis de tendencias de fallas para predecir los errores. Cuando ocurre una falla, un componente enviara a menudo una notificación al operador de red usando un protocolo (tal como SNMP), o, desplegando un mensaje en la consola del servidor para capturar y registrar la página. Los registros de fallas, son una entrada utilizada para registrar estadísticas que permiten determinar el nivel de servicio proveído por elementos de red individuales, así como subredes o el toda la red. Una red de manejo de fallas puede utilizar filtros complejos para asignar alarmas a diferentes niveles de gravedad según el fallo dado. Estos niveles pueden ser de despejado,

165 165 critico, indeterminado, mayor, menor o advertencia, según lo indica el protocolo UIT X.733. También es recomendado enviar una señal de alarma cuando el problema ha sido resuelto. Existen dos formas para llevar a cabo la gestión de fallos: forma pasiva o forma activa. La forma pasiva se realiza mediante la recopilación de las alarmas de los distintos dispositivos de red, normalmente a través del protocolo SNMP. En esta forma el sistema solo sabe que el dispositivo es lo suficientemente inteligente para generar e informar un error a la herramienta de gestión, sin embargo, si este dispositivo falla por completo no se produce una alarma y el problema no es detectado. Por otra parte, la forma activa del manejo de fallos aborda estos problemas de los dispositivos forma dinámica a través de herramientas como mensajes PING para determinar si el dispositivo esta activo. Si el dispositivo deja de responder el mensaje PING el sistema manda una alarma que da que el dispositivo no está disponible y se activa la posibilidad de corrección Configuration Management La gestión de configuración del modelo FCAPS se encarga entre otras cosas de monitorear y controlar todas las operaciones diarias, reunir y almacenar las configuraciones de los dispositivos de red ya sea localmente o de forma remota, simplificar la configuración de los dispositivos, seguir los cambios que son realizados en la configuración y configurar circuitos o vías a través de redes no conmutadas.

166 166 Nuevos programas o equipamiento, la modificación o eliminación de sistemas presentes son coordinados por el sistema de manejo de configuración Accounting Management La gestión de cuentas principalmente se encarga de recolectar estadística utilizable para los usuarios. Normalmente es referenciado como el sistema de manejo de la facturación. Las estadísticas permiten a los usuarios ser facturados y permite controlar cuota de uso de partes de la red como por ejemplo: El uso del disco, la utilización de link y el tiempo de CPU. Los protocolos más usados para el manejo de cuentas son RADIUS, TACACS y Diameter. Cuando son redes no facturadas, el término de cuentas o accounting es reemplazado por administration. Este nuevo manejo en el modelo FCAPS tiene como principal tarea administrar un conjunto de usuarios autorizados estableciendo: contraseñas, permisos y operaciones de administrador al equipo, tal como, realizar el backup de software y sincronización Performance Management El manejo del rendimiento consiste en la medición, modelado, planificación y optimización de redes para garantizar que se lleve el tráfico con la velocidad, fiabilidad y capacidad apropiada requerida. Permite al administrador a preparar la red para el futuro, así como determinar la eficiencia de la red actual. Un ejemplo de este estudio de la eficiencia es la relación de la inversión realizada al establecer la red con su funcionamiento.

167 167 El rendimiento de la red se mide con el volumen de información o cantidad de trabajo del sistema (throughput), el porcentaje de utilización, las tasas de error y el tiempo de respuesta. Coleccionando y analizando los datos de rendimiento, la salud de la red puede ser monitoreada. Los limites o umbrales del rendimiento pueden ser establecidos para disparar una alarma que será manejada por el sistema de manejo de fallos. Existen diferentes factores que influyen en el rendimiento de una red, entre estos encontramos: - Latencia: tiempo en entregar los paquetes. Se mide como el tiempo de ida y vuelta - Perdida de Paquetes: en los dispositivos intermedios de una red se puede dar el caso de pérdida de paquetes - Retransmisiones: se da cuando se pierden paquetes en una red confiable, en este caso estos paquetes son retransmitidos. - Rendimiento o Throughput: la cantidad de tráfico en una red, normalmente medida en kilobits por segundo Security Management Por último encontramos al sistema de manejo de seguridad, el cual es el proceso de controlar el acceso a los recursos de la red.

168 168 La seguridad de los datos puede ser conseguida mediante la autenticación y encriptación de estos. La autorización es configurada con el sistema operativo y la configuración del control de acceso de las DBMS 27. [96] 27 Database Management System (DBSM), es un conjunto de programas de computador que manejan la creación, mantenimiento y uso de una base de datos.

169 CAPÍTULO 6: Conclusiones y recomendaciones 6.1 Conclusiones La digitalización de los medios es un hecho. Muchos países han realizado la estandarización y la debida transición al sistema de televisión digital debido a las facilidades y ventajas en manejo, procesamiento y transmisión de la señal. La fácil para el consumidor de dispositivos digitales (televisores plasma y LCD) han acelerado el proceso. La principal razón de este cambio reside en que señal digital ofrece mayores ventajas con respecto a la analógica en cuanto al manejo, almacenamiento, procesamiento y transmisión. Sin embargo, se requieren de diversas técnicas para sacar el mayor provecho de esto. La compresión del flujo de video es primordial en la transmisión y almacenamiento de video. Distintos códec se han desarrollado para la codificación y decodificación de los flujos de video. Será el usuario el encargado de escoger cual es el que se adapta mejor a sus requerimientos. Los sistemas DTV utilizan como estándar el formato MPEG-2 en la transmisión y procesamiento de video digital. Estos flujos MPEG-2 son multiplexados junto con los flujos de audio, datos y servicios interactivos, siendo transmitidos desde la cabecera de televisión digital hacia los dispositivos receptores pertenecientes a los usuarios, para ser transmitido hacia los usuarios. Justamente, es en la cabecera donde se lleva a cabo la modulación de la señal. Se utilizan niveles desde 16 a 256 QAM o de 8 a 16 VSB según sea el sistema DTV. Además, 169

170 170 una tendencia moderna es el proporcionar servicio de internet a través de una red de televisión por cable. Esto se lleva a cabo por el CMTS. En el cumplimiento de los objetivos del proyecto, se concluyó con las siguientes consideraciones: Distintas organizaciones han desarrollado sus estándares, algunos son específicos a un sistema en particular y otros son utilizados como estándares en los que se basan todos los sistemas existentes. Este último es el caso de los estándares desarrollados por ISO/IEC los cuales son la base de todos los demás estándares en especial los que se refieren a sistemas como ATSC y DVB. Para acelerar el proceso y mejorar la eficiencia de la codificación de video, se utiliza un sistema de codificación de lazo cerrado, además de utilizar la codificación con bit-rate variable. Sistemas de Inserción Digital de Programas (DPI) proporcionan a las operadoras de cable grandes ganancias que se hace rentable implementarlo. El return path es utilizado entre otras cosas para solicitudes de video PPV e internet. Como todo sistema existente, un de red de telecomunicaciones requiere ser administrada y monitoreada para su perfecta operación. Los sistemas basan su administración en el modelo FCAPS de ISO.

171 Recomendaciones Los estándares son establecidos con el fin de generar una señal de buena calidad y por lo tanto es primordial que los operadores de cable los apliquen en su sistema. Además, el video digital les permite (a los operadores) implementar sistemas que permiten mejorar sus ganancias, tal como, la inserción digital de programas y el video bajo demanda. Aparte, diversas técnicas para codificación y multiplexación pueden ser aplicadas, siendo la multiplexación estadística por división de tiempo, la codificación con bit-rate variable y la configuración a lazo cerrado las más recomendadas. Por otra parte, en necesario que nuestro país de el paso al frente al cambio de tecnología (analógica a digital) para no atrasarse en cuanto a tendencias tecnológicas que se desarrollaran y para experimentar de las ventajas de calidad de imagen proporcionadas por esta. El consumidor costarricense debe adquirir el equipo adecuado para conseguir realizar el cambio. El proyecto abarca muchos temas acerca del video digital, sin embargo, puede continuarse con la investigación dedicada a la implementación de un sistema de video digital. El temario de la certificación SCTE-DVEP ofrece un apartado referente a la implementación de un sistema del cual el desarrollador del proyecto podrá basarse. Deberá contener entre otras cosas el proceso de diseño a un campo de aplicación que amerite la traslación del sistema (encuestas, compatibilidad de los decodificadores, aplicación del sistema de red con esquema IP, entre otras cosas), así como los planos de preimplementación y la gestión para la transición de sistemas.

172 BIBLIOGRAFÍA Artículos de revistas: 1. Conrad, R. (1995). Ancillary Data and the Serial Digital Interface, SMPTE Journal, Estados Unidos. 2. National Information Standards Organizations (NISO). (2004). Understanding Metadata, National Information Standards Organization Press. Libros: 3. Ciciora, W., Farmer, J., Large, D. & Adams, M. (2004). Modern Cable Television Technology. (2 ed.). Estados Unidos: Morgan Kaufmann Publisher. 4. Jack, K. (2007). Video Demystified. (5 Ed.). Estados Unidos de América: Newnes. 5. Tanenbaum, A. (2003). Redes de Computadoras. (4 ed.). México: Prentice Hall. 6. Tomasi, W. (2003). Sistemas de Comunicaciones Electrónicas. (4 ed.) México: Prentice Hall. 7. Poslad Stefan. (2009). Ubiquitous Computing: Smart Devices, Environments and Interactions. (1 Ed.) Great Britain: Wiley Publishing Inc. 8. Aldrich, R. & Parello, J. (2010). IP-Enabled Energy Management: A Proven Strategy for Administering Energy as a Service. (1 Ed.) Estados Unidos: Wiley Publishing Inc. Páginas web: 172

173 Society of Cable Telecommunications Engineers (SCTE). Digital Video Engineering Professional (DVEP). Extraído el 6 de agosto, 2010, de 10. digitalfotored. Señal de Video, de 11. digitalfotored. Longitud de Onda y Frecuencia, de 12. Access Dome, Information About Secondary Audio Programming. Extraído el 10 de Septiembre, 2010, de 13. National Captioning Institute (NCI), About Captioning. Extraído el 10 de Septiembre, 2010, de 14. N.C., Proceso de Digitalización de una Señal Analógica. Extraído el 11 de Septiembre, 2010, de 15. N.C., Conversión Analógica Digital. Extraído el 12 de septiembre, 2010, de 16. N.C., Digitalización. Extraído el 12 de septiembre, 2010, de 17. N.C. Teorema de muestreo Nyquist. Extraído el 12 de septiembre, 2010, de 18. N.C., Exploración Progresiva. Extraído el 12 de septiembre, 2010, de

174 N.C., Quantization, Extraído el 13 de septiembre, 2010, de 20. N.C., Cuantificación. Extraído el 14 de septiembre, 2010, de 21. N.C., Codificación Digital. Extraído el 14 de septiembre, 2010, de html/ 22. N.C., Profundidad de bits. Extraído el 15 de septiembre, 2010, de 23. ADOBE, Centro de recursos de ayuda., Profundidad de bits. Extraído el 15 de septiembre, 2010, de 24. N.C, Modelo de color RGB, Extraído el 15 de septiembre, 2010, de 25. N.C, Modelo de color CMYK, Extraído el 15 de septiembre, 2010, de 26. Kuehni, R. Color Spaces. Extraído el 16 de septiembre. 2010, 27. N.C., Modelo de color YIQ. Extraído el 17 de septiembre, 2010, de 28. N.C., YIQ. Extraído el 17 de septiembre, 2010, de 29. N.C., YUV. Extraído el 17 de septiembre, 2010

175 N.C. YUV, YCbCr, YPbPr Color spaces. Extraído el 17 de septiembre, 2010, de 31. N.C., Crominancia. Extraído el 18 de septiembre, 2010, de 32. N.C., Luminancia. Extraído el 18 de septiembre, 2010, de 33. N.C, Compensación de movimiento, Extraído el 20 de septiembre, 2010, de 34. N.C., Aspect Ratio. Extraído el 21 de septiembre. 2010, de (image) 35. N.C., Audio Digital. Extraído el 26 de septiembre, 2010, de 36. N.C., S.M.P.T.E Time Code. Extraído el 26 de septiembre, 2010, de 37. Mills, D. Network Time Protocol General Overview. Extraído el 26 de septiembre. 2010, de 38. N.C., Network Time Protocol. Extraído el 27 de septiembre, 2010, de 39. N.C., Que significa MPEG. Extraído el 27 de septiembre, 2010, de 40. N.C., Moving Picture Expert Group. Extraído el 27 de septiembre, 2010, de

176 N.C., MPEG-2. Extraído el 28 de septiembre, 2010, de 42. Hewlett-Packard (HP), MPEG-2 the basics of how it works. Extraído el 26 de septiembre, 2010, de web.itu.edu.tr/~pazarci/rtv/mpegtutorial1.pdf 43. N.C., MPEG-2, MPEG-4 ACC. Extraído el 28 de septiembre, 2010, de 44. N.C. VC-1 Technical Overview. Extraído el 28 septiembre, 2010, de 45. Paulsen, K. Asynchronous Interface for Video Servers. Extraído el 30 de septiembre, 2010, de 46. N.C., Metadata and Digital Video. Extraído el 27 de septiembre, 2010, de 47. N.C. Program Specific Information. Extraído el 29 de septiembre, 2010, de 48. Cablelabs. Cable System Primer. Extraído el 3 de octubre, 2010, de 49. Motorola, The Digital Addressable System. Extraído el 3 de octubre, 2010, de 0Elements/DAC6000/_Documents/Static%20Files/DAC6000.pdf?localeId= N.C., MoCA. Extraído el 3 de octubre, 2010, de 51. N.C., HPNA. Extraído el 3 de octubre, 2010, de 52. Fundación software libre, DRM: deliberadamente defectuoso. Extraído el 5 de octubre, 2010, de

177 Microsoft staff, DRM Technologies. Extraído el 5 de octubre, 2010, de 54. N.C., CableCARD. Extraído el 5 de octubre, 2010, de 55. CableLabs, OpenCable CableCARD Premier. Extraído el 5 de octubre, 2010, de 56. CableLabs, PacketCable. Extraído el 6 de octubre, 2010, de 57. Riley, S., PCMM excellent adventure. Extraído el 6 de octubre, 2010, de 58. Strickland, J., How Switched Video Digital works?. Extraído el 1 de octubre, 2010, de 59. Digital trend staff, Switched Video Digital. Extraído el 1 de octubre, 2010, de 60. N.C., VoD, 61. Costa, A. Video on Demand. Extraído el 1 de octubre, 2010, de 62. N.C., DVR-PVR. Extraído el 1 de octubre, 2010, de 63. N.C., Que es un DVR?. Extraído el 1 de octubre, 2010, de

178 N.C., Electronic Program Guide & Interactive Program Guide. Extraído el 1 de octubre, 2010, de 65. CableLabs, OpenCable. Extraído el 1 de octubre, 2010, de 66. N.C., Introduction to OCAP. Extraído el 1 de octubre, 2010, de 67. Silbey, M., Network DVR vs. Remote Storage DVR. Extraído el 1 de octubre, 2010, de 68. CISCO, DOCSIS Set-top Gateway, Extraído el 2 de octubre, 2010, de 69. CISCO, DOCSIS Set-top Gateway FAQ. Extraído el 2 de octubre, 2010, de 70. N.C., Dirección IP. Extraído el 3 de octubre, 2010, de 71. Ponce, P. Especificación Protocolo Internet. Extraído el 4 de octubre, 2010, de 72. N.C., EIA-608. Extraído el 15 de octubre, 2010, de 73. N.C. Statistical Multiplexing - Multiplex Usage Chart. Extraído el 15 de octubre, 2010, de 74. Acer, M., Digital Program Insertion. Extraído el 16 de octubre, 2010, de

179 N.C., Variable BitRate. Extraído el 16 de octubre, 2010, de 76. N.C., Constant BitRate. Extraído el 16 de octubre, 2010, de 77. Motorola staff, Statistical Multiplexing Over IP, Extraído el 17 de octubre, 2010, de 1000/_Documents/_Static%20files/SP_StatmuxIP.pdf?localeId= CableLabs, Quality of Services: DOCSIS/PacketCable Perspective. Extraído el 18 de octubre, 2010, de 79. N.C., Digital TV Headend Source Routing. Extraído el 15 de octubre, 2010, de 80. N.C, Cable Head-end. Extraído el 19 de octubre, 2010, de 81. Ellis, L., So You Want to split your Node? Extraído el 20 de octubre, 2010, de 82. Tombes, J., Node Splits, marzo (2007). Extraído el 20 de octubre, 2010, de 83. Howald, R., DOCSIS Part 3. Extraído el 20 de octubre, 2010,de 84. Hranac, R., Broadband: DOCSIS Set-top Gateway. Extraído el 21 de octubre, 2010, de

180 Howald, R., DOCSIS Part 2. Extraído el 21 de octubre, 2010, de 86. N.C., The definitions of OSS and BSS. Extraído el 1 de noviembre, 2010, de 87. CISCO staff, Network Management System: Best Practice White Paper. Extraído el 2 de noviembre, 2010, de 88. N.C., Element Management System. Extraído el 3 de noviembre, 2010, de 89. N.C., Element Management System. Extraído el 2 de noviembre, 2010, de 90. Rockwood, B., The Cuddletech Guide to SNMP Programming. Extraído el 22 de octubre, 2010, de 91. N.C., Application Programming Interface. Extraído, el 4 de noviembre, 2010, de nterface&i=37856,00.asp 92. W3C., Extensible Markup Language. Extraído el 10 de noviembre, 2010, de 93. Tektronix, MTS 100 MPEG Test System. Extraído el 14 de noviembre, 2010, de 94. MSK, MSK 200 TV signal Analyzer. Extraído el 14 de noviembre, 2010, de

181 SENCORE, SENCORE DPI Monitor. Extraído el 14 de noviembre, 2010, de 96. N.C., FCAPS, Extraído el 15 de noviembre, 2010, de 97. N.C., Quadrature Amplitude Modulation. Extraído 15 de noviembre, 2010, de 98. N.C., Sistemas de Telecomunicaciones con tecnología HFC. Extraído el 15 de noviembre, 2010, de 99. N.C., What is Aliasing?, Extraído el 20 de enero, 2011, de Normas: 100. International Organization of Standardization (ISO)/ International Electro technical Commission (IEC), ISO/IEC : Information Technology Generic coding of moving pictures and associated audio information: Video, de International Organization of Standardization (ISO)/ International Electrotechnical Commission (IEC). ISO/IEC : Information Technology Generic coding of moving pictures and associated audio information: Video 102. International Organization of Standardization (ISO)/ International Electrotechnical Commission (IEC). ISO/IEC : Information Technology Generic coding of moving pictures and associated audio information: Audio. De

182 International Organization of Standardization (ISO)/ International Electrotechnical Commission (IEC). ISO/IEC : Information Technology Coding of audio-visual objects Part 10: Advances Video Coding. De Society of Motion Picture and Television Engineers (SMPTE), SMPTE RP227. De Society of Cable Telecommunication Engineers (SCTE), SCTE 142: Transport Stream Verification. De Society of Cable Telecommunication Engineers (SCTE), SCTE-54: Digital Video Service Multiplex and Transport System Standard for Cable Television. De Society of Cable Telecommunication Engineers (SCTE), SCTE-43: Digital Video Systems Characteristics. De Society of Cable Telecommunication Engineers (SCTE). SCTE-127: Carriage of Vertical Blanking Interval (VBI) Data in North American Digital Television Bitstream. De Society of Cable Telecommunication Engineers (SCTE), SCTE-157: VC-1 Video System and Transport Constraints for Cable Television. De

183 Society of Cable Telecommunication Engineers (SCTE), SCTE-30: Digital program insertion splicing API. De Society of Cable Telecommunication Engineers (SCTE), SCTE-35: Digital program insertion cueing message for cable. De ing%20message%20for%20cable.pdf 112. Society of Cable Telecommunication Engineers (SCTE), SCTE-18: Emergency alert messaging for cable. De Society of Cable Telecommunication Engineers (SCTE), SCTE-65: Service information delivered out-of-band for digital cable television. De Advance Television System Committee (ATSC), A/53: ATSC Digital Television Standard. De Advance Television System Committee (ATSC). A/52: ATSC Audio Compression Standard (AC-3 y E-AC-3). De Advance Television System Committee (ATSC), A/72 Part-1: Video system characteristics of AVC in ATSC. De

184 Advance Television System Committee (ATSC), A/72 Part-2: AVC transport subsystem characteristics. De Advance Television System Committee (ATSC), A/78: Transport Stream Verification. De Advance Television System Committee (ATSC), A/65: Program and System Information Protocol (PSIP) for Terrestrial Broadcast and Cable. De Digital Video Broadcasting (DVB), ETSI TS : Implementation Guidelines of Video and Audio Coding in Broadcasting Applications Based on the MPEG-2 TS. De Digital Video Broadcasting (DVB), ETSI EN : Specification for the carriage of vertical blanking information (VBI) data in DVB bit streams. De f 122. Digital Video Broadcasting (DVB), ETSI TR : Measurement guidelines for DVB systems. De International Telecommunication Union (ITU), ITU-RBT.601: Parámetros de codificación de televisión digital para estudios con formatos de imagen

185 185 normal 4:3 y de pantalla ancha 16:9. De Rohde & Schwarz. The digital video standard according to ITU-R BT.601/656. De International Telecommunication Union (ITU), ITU-R BT.709: Valores de los parámetros de la norma de HDTV para la producción e intercambio internacional de programas. De s.pdf 126. International Telecommunication Union (ITU), ITU-R BT.500: Metodología para la evaluación subjetiva de la calidad de la imagen de televisión. De International Telecommunication Union (ITU), ITU-T J.83: Sistemas digitales multi-programa para servicios de televisión, sonido y datos por distribución de cable. De Consumer Electronics Association (CEA), CEA-608: Line 21 data services. De Consumer Electronics Association (CEA), CEA-708: Captions for digital Video. De Bohn, D. Interfacing AES3 & SPDIF, RANE Notes. 2001, Estados Unidos Audio Engineering Society (AES), AES3id/SMPTE276M. De Artículos Personales, Universitarios y Convenciones:

186 Sacco, A. (2003). Apuntes sobre sonido Digital 133. Tkalcic, M & Tasic, J. Color spaces: perceptual, historical and applicational background. Del sitio web de la facultad de ingeniería electrónica de la Universidad de Ljubjana, Eslovenia Delgado Gutiérrez, A. (2001). Flujos de Programa y Transporte MPEG-2 Aplicación a DVB. Del sitio web del Departamento de Electromagnetismo y Teoría de Circuitos (ETC) de la Universidad Politécnica de Madrid Fernández, P. Propagación del error en codificación Escalable Todd, C. & Davidson, G. (1994, Marzo). AC-3 Flexible Perceptual Coding for Audio Transmission and Storage. En: 96 th Convention of the Audio Engineering Society (96ª Convención de la sociedad de ingeniería de audio). San Francisco, Estados Unidos Concejero, P., Gil, S. Ramos, R. & Collado, J. (1997). Usability testing of an Electronic Programme Guide and Interactive TV Applications. Human Factors Group, Telefónica Investigación y Desarrollo. Madrid, España Wang, Z., Sheikh, H. & Bovik, A. (2003). Objective Video Quality Assessment. Departamento de Ingeniería Eléctrica e Ingeniería de Computadores de la Universidad de Texas, Estados Unidos Pérez Vega, C. La Señal Analógica de Video. Departamento de Ingeniería de Comunicaciones.

187 Wiegand, T. & Sullivan, G. Overview of the H.264/AVC Video Coding Standard. IEEE Transactions on circuits and systems for video technology. Vol.13, No.7. Julio 2003, Estados Unidos. Tesis de grado: 141. Corrales, A. (2008). Análisis de la tecnología HDTV y articulación de una propuesta para su implementación. Proyecto de graduación para optar por el grado de Bachiller en Ingeniería Eléctrica, Escuela de Ingeniería Eléctrica, Universidad de Costa Rica, San José, Costa Rica.

188 APÉNDICE A: MODULACION DE AMPLITUD EN CUADRATURA (QAM) La modulación de amplitud en cuadratura, es una modulación digital avanzada que transporta datos cambiando la amplitud de dos ondas portadoras. Estas dos ondas, generalmente sinusoidales, están desfasadas entre sí 90 en la cual una onda es la portadora y la otra es la señal de datos. Esta modulación consiste en modular en amplitud (ASK) de forma independiente, dos portadores que tienen la misma frecuencia pero que están desfasadas entre si 90º. La señal modulada QAM es el resultado de sumar ambas señales ASK. Estas pueden operar por el mismo canal sin interferencia mutua porque sus portadoras están en cuadratura. La fórmula matemática se ve a continuación: QAM an cos wt bn cos wt An, m cos( wt H n, m ) (A.1) Donde, a n (cos(wt)) y b m (sen(wt)) están moduladas en ASK, A n,m esta modulada en ASK y (coswt H n,m ) es una expresión modulada en PSK. Para explicar el funcionamiento básico de un transmisor QAM, se utilizara el transmisor de 16 niveles que se muestra en la figura A.1. El flujo de bits de entrada se dividen en 4 canales (2 4 =16): I, I, Q y Q. I viene de In-phase y Q de quadrature, además el apostrofe significa negado. La tasa de bits de entrada se divide en 4 dando como resultado una tasa de fb/4 en cada uno de los cuatro canales. Se sincronizan 4 bits seriales los cuales salen en forma simultánea y en paralelo por cada uno de los canales con los canales definidos. Los bits I y 188

189 189 Q determinan la polaridad en la salida de los convertidores digital a analógico. Los bits en los canales I y Q, determinan la magnitud. En la salida del convertidor se tiene una señal PAM de 4 niveles. Estas señales PAM modulan las portadoras en fase y en cuadratura en los moduladores de producto. Dado esto, para cada modulador de productos son posibles 4 salidas. Por último el sumador lineal combina las salidas de los moduladores de producto de canal I y Q y produce las 16 condiciones de salida necesarias para el 16QAM. Figura A.1 Transmisor 8-QAM [6] Diagrama de constelaciones QAM La técnica de modulación QAM busca maximizar el área de decisión para cada punto de la constelación que compone a la misma. Para una m-aria determinada existe una disposición óptima tal que maximiza este área pero no siempre es sencilla de lograr e interpretar, es por esto que existen variantes, las cuales sin obtener las máximas áreas de decisión, son más simples de usar y dan buenos resultados: por eso se utilizan. En este caso de las figures se usa QAM rectangular.

190 190 Figura A.2 Constelaciones 4-QAM, 8-QAM y 16-QAM [126] Figura A.3 Constelaciones 32-QAM, 64-QAM y 256-QAM [126] Las figuras A.2 y A.3 nos ilustra una mejor visión para poder explicar mejor el funcionamiento de QAM. Aquí como observamos llegamos a la conclusión de que mientras el número de niveles sea menor, tendremos mejor robustez en contra de alguna perturbación externa que ingrese al sistema. Esto lo veremos reflejado en el análisis de resultados de este experimento. También vemos que mientras el número de niveles sea grande, ya el sistema va a ser más propenso a perturbaciones ya que los niveles de la constelación tendrán muy poco margen de error.

191 APÉNDICE B: REDES HIBRIDAS FRIBRA-COAXIAL (HFC) Una red HFC (hybrid fiber - coaxial) es una red de telecomunicaciones por cable hibrida la cual combina la fibra óptica y coaxial (cobre) como soportes para la transmisión de señales. Este tipo de red ofrece todo tipo de servicio por un único acceso, reemplazando parte de la red coaxial con fibra óptica, tiene mayor capacidad de servicio, mayor alcance y es bidireccional, a diferencia de las redes basadas solo en cable coaxial, las cuales son muy limitadas. Estos servicios ofrecidos pueden ser TV, telefonía, internet entre otros. La arquitectura de una red HFC está configurada en forma de anillos multipunto, primarios (transporte) y secundarios (fibra); de los anillos secundarios salen acometidas de red coaxial; es una topología más lógica que física en la mayoría de los casos, permite que el sistema vaya creciendo progresivamente en función de la demanda de utilización del canal de retorno. Se compone básicamente de cuatro partes claramente diferenciadas: la cabecera, la red troncal, la red de distribución, y la red de acometida de los abonados. La cabecera es el centro desde el que se gobierna todo el sistema. Su complejidad depende de los servicios que ha de prestar la red. La cabecera es también la encargada de monitorear la red y supervisar su correcto funcionamiento. La red troncal suele presentar una estructura en forma de anillos redundantes de fibra óptica que une a un conjunto de nodos primarios. Los nodos primarios alimentan a otros nodos (secundarios) mediante enlaces punto a punto o bien mediante anillos. En éstos nodos secundarios las señales ópticas se convierten a señales eléctricas y se distribuyen a 191

192 192 los hogares de los abonados a través de una estructura tipo bus de coaxial, la red de distribución. Cada nodo sirve a unos pocos hogares lo cual permite emplear cascadas de 2 ó 3 amplificadores de banda ancha como máximo. Con esto se consiguen muy buenos niveles de ruido y distorsión en el canal descendente (de la cabecera del usuario). La red de acometida salva el último tramo del recorrido de las señales descendentes, desde la última derivación hasta la base de conexión de abonado. Figura B.1 Estructura de una red HFC [98]

193 193 APÉNDICE C: ALIASING Al muestrear la señal analógica se debe seguir el parámetro de muestreo dado por el teorema de Nyquist, para la reconstrucción efectiva de la señal. Si se hace caso omiso a la frecuencia de muestreo dada por Nyquist y se realiza el muestreo por debajo de esta, surgen problemas en la reconstrucción. Este problema es conocido como aliasing. Un ejemplo de esto son las fisuras o tonos suavizados de una película. Este error se debe a que la tasa de fotogramas no es la adecuada, por lo tanto, la percepción del video se ve empañada por la falta de datos que no fueron muestreados. Para evitar este fenómeno se debe eliminar las componentes de frecuencia presentes en la parte superior de la frecuencia de muestreo. Quiere decir, las frecuencias mayores a la mitad de la frecuencia de muestreo de Nyquist. Esto se consigue, colocando un filtro pasa bajas antes de realizar el muestreo de la señal (se aplica a la señal analógica).

194 ANEXO 1: Sistemas de Televisión Digital Figura A1.1 Sistemas de DTV en el mundo [141] 194

195 195 ANEXO 2: Tablas PSI Program Association Table (PAT) Cuadro A2.1 Program Association Table (PAT) [47] Cuando Nombre N bits Descripción Sí empieza una unidad de payload del TS Pointer field 8 Table ID 8 0x00 Misc 2 Siempre es 10 2 Repeated N times depending on section length Reserved 2 Siempre es 11 2 Section length 2+10 Informa cuantos programas están listados a continuación por un específico número de bytes de esta sección, empezando inmediatamente después de este campo e incluye el CRC. Los 2 primeros bits deben ser 0. transport stream ID 16 Dato definido por usuario. El dato no es importante para demultiplexores o reproductores Misc Versiones y soportes para múltiples PAT. Puede ser 0x para flujos simples Program num 16 Reserved 3 Siempre es Program PID 13 Paquetes con este PID son tomados como las tablas PMT CRC x00 La PAT se asigna a un PID 0x0000 y tabla de identificación de 0x00. El TS contiene por lo menos uno o más paquetes TS con PID 0x0000. Algunos de estos paquetes consecutivos forman la tabla PAT. En el decodificador después de que el filtro identifica la tabla PAT se ensambla el paquete y se decodifica. La tabla PAT tiene información sobre todos los programas contenidos en el TS. Además, la tabla PAT contiene información que muestra la asociación de la PMT y el número de programa. El PAT debe terminar con un CRC de 32 bits.

196 196 Conditional Access Table (CAT) Cuadro A2.2 Conditional Access Table (CAT) [47] Cuando Nombre N bits Descripción Sí Sección CA Table ID 8 Establecido en 0x01 Misc 2 reserved 2 Section Length 12 Informa el tamaño en bytes de la sección, empezando inmediatamente después de este campo e incluye el CRC. Los 2 primeros bits deben ser 0. Misc Versiones y soportes para múltiples CATs. CRC32 32 La tabla CAT provee la asociación entre uno o más sistemas de acceso condicional, sus flujos EMM y cualquier parámetro especial asociado a ellos. Program Map Table (PMT) Cuadro A2.3 Program Map Table (PTM) [47] Cuando Nombre N bits Sí empieza una unidad de payload del TS Descripción Pointer field 8 Usualmente 0x00 Table ID 8 Siempre 0x02 Section syntax indicator 1 Always set to 0 1 Reserved 2 Siempre 11 2 Section length 2+10 Numero de programas listados. Primeros dos bits deben ser cero Program num 16 Reserved 2 Version number 5 Current Next indicator 1 Sí es 1, esta tabla es actualmente valida. Section number 8 Siempre 0x00 Last Section number 8 Siempre 0x00

197 197 Repetir N veces dependiendo de section length Reserved 3 PCR PID 13 PID del general timecode stream, o 0x1FFF Reserved 4 Program Info length Program Descriptor 2+10 Suma el tamaño del siguiente descriptor de programa, los primeros dos bits son cero N*8 stream type 8 Reserved 3 Siempre Elementary PID 13 Reserved 4 ES Info length 2+10 Los primeros dos bits deben ser 0. ES Descriptor N*8 Sí ES Info length es cero, este es omitido CRC32 32 La tabla contiene los números PID de los flujos elementales asociados con el programa y tiene información acerca del tipo de estos flujos elementales (audio, video, etc.). Además, contiene el numero PID ECM del mensaje del control de titulación, el cual es asociado con el programa.

198 ANEXO 3: Certificación de Digital Video Engineering Professional (DVEP) de la Society of Cable Telecommunications Engineers (SCTE) 198 Los siguientes cuadros muestran el temario proporcionado por la SCTE para la certificación DVEP y que fue la referencia básica para el desarrollo de este proyecto. Cuadro A3.1 Digital Multimedia Theory [9]

199 Cuadro A3.2 Digital Multimedia & Systems Standards [9] 199

200 Cuadro A3.3 Digital Video Systems Design and Integration [9] 200

201 Cuadro A3.4 Digital Video Systems Test Monitoring and Performance Management [9] 201

202 Cuadro A3.5 Digital Video System Deployment [9] 202

3.3 SISTEMAS ANALÓGICOS DE TV SATÉLITE

3.3 SISTEMAS ANALÓGICOS DE TV SATÉLITE 3.3 SISTEMAS ANALÓGICOS DE TV SATÉLITE En las comunicaciones vía satélite se utiliza la banda de les microondas (SHF y EHF) y sus márgenes están comprendidos entre 10,95 GHz y 12,5 GHz... La señal procedente

Más detalles

1. Sistemas de televisión extendidas:

1. Sistemas de televisión extendidas: Introducción al vídeo Este material supone solo una ampliación de la cultura general de cada alumno. No pretende de rigor o exactitud, pero es necesario para entender el resto del material de vídeo. 1.

Más detalles

Tema 2. Principios de la Digitalización

Tema 2. Principios de la Digitalización Tema 2 REPRESENTACIÓN DE LA INFORMACIÓN MULTIMEDIA Principios de la Digitalización Propiedades de una señal analógica Análisis de Fourier El ancho de banda (bandwidth ) es la frecuencia máxima menos la

Más detalles

Capítulo 5. Aplicaciones

Capítulo 5. Aplicaciones Capítulo 5 Aplicaciones 5.1 Conectividad, topología, configuración y cobertura Las funciones de comunicaciones de un satélite pueden ser retransmisión de datos (telecomunicaciones), colección de datos

Más detalles

Número de referencia de la Interfaz de Acceso

Número de referencia de la Interfaz de Acceso Interfaz DOCSIS V.1.0 Acceso a Internet y Servicios IP Número de referencia de la Interfaz de Acceso Versión Descripción del cambio Páginas afectadas Fecha de la versión V.1.1 Primera publicación de la

Más detalles

Introducción Sistema Digital CNA

Introducción Sistema Digital CNA Introducción Sistema Digital CNA Agenda Elección del Estándar Esquema de Sistema de Transmisión de DVB C Porque Elegir DVB Modelo de Negocios Emergentes Nuestra plataforma Arquitectura Digital Nuestros

Más detalles

Computadores y Comunicaciones. Tema 6: Aplicaciones Multimedia

Computadores y Comunicaciones. Tema 6: Aplicaciones Multimedia Computadores y Comunicaciones Tema 6: Aplicaciones Multimedia Febrero, 2011 Jorge Juan Chico , Julián Viejo Cortés Departamento de Tecnología Electrónica Universidad

Más detalles

Ventajas de la Televisión Digital. Hugo Carrión G. Febrero, 2009

Ventajas de la Televisión Digital. Hugo Carrión G. Febrero, 2009 Ventajas de la Televisión Digital Hugo Carrión G. Febrero, 2009 1 Contenido Definiciones previas Sistemas de televisión Formatos de transmisión Espectro electromagnético Tecnología digital Ventajas de

Más detalles

GLOSARIO TELEVISIÓN DIGITAL TERRESTRE

GLOSARIO TELEVISIÓN DIGITAL TERRESTRE GLOSARIO TELEVISIÓN DIGITAL TERRESTRE Ancho de banda: En términos simples, cada servicio requiere de un espacio del espectro radioeléctrico y se homologa la anchura de banda de una frecuencia con cuánta

Más detalles

REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD Dr. RAFAEL BELLOSO CHACIN VICERRECTORADO DE INVESTIGACIÓN Y POSTGRADO MAESTRÍA DE TELEMÁTICA

REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD Dr. RAFAEL BELLOSO CHACIN VICERRECTORADO DE INVESTIGACIÓN Y POSTGRADO MAESTRÍA DE TELEMÁTICA REPUBLICA BOLIVARIANA DE VENEZUELA UNIVERSIDAD Dr. RAFAEL BELLOSO CHACIN VICERRECTORADO DE INVESTIGACIÓN Y POSTGRADO MAESTRÍA DE TELEMÁTICA TELEVISIÓN IP INTEGRANTES: Ávila, José Garcías, Carlos Delgado,

Más detalles

UD - 6 SISTEMAS DE COMPRENSIÓN DE IMÁGENES

UD - 6 SISTEMAS DE COMPRENSIÓN DE IMÁGENES UD - 6 SISTEMAS DE COMPRENSIÓN DE IMÁGENES Eduard Lara 1 1. INTRODUCCIÓN La digitalización de las imágenes de TV genera una alta cantidad de información Tratamiento y distribución complicado. Necesidad

Más detalles

Televisióndigital Aspectosdecodificacióny modulación. GuillermoLangwagen UniversidadORTUruguay AcademiaNacionaldeIngeniería

Televisióndigital Aspectosdecodificacióny modulación. GuillermoLangwagen UniversidadORTUruguay AcademiaNacionaldeIngeniería Televisióndigital Aspectosdecodificacióny modulación GuillermoLangwagen UniversidadORTUruguay AcademiaNacionaldeIngeniería Mayo 2008 Televisióndigital-May2008 p.1 Temario Television analógica Digitalización

Más detalles

Teoria de las Telecomunicaciones. TEMA 2 Tècnicas de modulacion. Luis Lujan

Teoria de las Telecomunicaciones. TEMA 2 Tècnicas de modulacion. Luis Lujan Teoria de las Telecomunicaciones TEMA 2 Tècnicas de modulacion Luis Lujan 1 Índice Técnicas de codificación: Datos digitales: Señales digitales. Señales analógicas. Datos analógicos: Señales digitales.

Más detalles

Vídeo y animaciones ::: Introducción Diseño de materiales multimedia. Web 2.0. 4.1 Introducción

Vídeo y animaciones ::: Introducción Diseño de materiales multimedia. Web 2.0. 4.1 Introducción 4. Vídeo 314 4.1 Introducción 315 4.1 Introducción 4.1.1 Conceptos básicos de vídeo digital Dimensiones. Es el tamaño del video (ancho x alto) expresado en píxeles cuando se visualiza al 100%, sin agrandar

Más detalles

Tema 4: Audio y Vídeo digital

Tema 4: Audio y Vídeo digital Tema 4: Audio y Vídeo digital 1. Introducción La vibración de las partículas del aire es captada por nuestro oído y crea una sensación en nuestro cerebro que llamamos sonido. El sonido digital es la información

Más detalles

CONTENIDO. SECCIÓN 1 HDTV: Por qué tanto escándalo? SECCIÓN 2 LA DEFINICIÓN DE HDTV SECCIÓN 3 TÉRMINOS DIFÍCILES, EXPLICACIONES SENCILLAS

CONTENIDO. SECCIÓN 1 HDTV: Por qué tanto escándalo? SECCIÓN 2 LA DEFINICIÓN DE HDTV SECCIÓN 3 TÉRMINOS DIFÍCILES, EXPLICACIONES SENCILLAS CONTENIDO SECCIÓN 1: HDTV: Por qué tanto escándalo? SECCIÓN 2: La definición de HDTV SECCIÓN 3: Términos difíciles, explicaciones sencillas SECCIÓN 4: HDTV: Qué tiene de diferente? SECCIÓN 5: Qué transmiten

Más detalles

Conversor Analógico Digital (CAD)

Conversor Analógico Digital (CAD) Conversor Analógico Digital (CAD) La salida de los sensores, que permiten al equipo electrónico interaccionar con el entorno, es normalmente una señal analógica, continua en el tiempo. En consecuencia,

Más detalles

Transmisión de Audio y Vídeo en Internet

Transmisión de Audio y Vídeo en Internet Transmisión de Audio y Vídeo en Internet Agustín J. González agv@elo.utfsm.cl Académico de la Universidad Técnica Federico Santa María Septiembre 2001 1 Contenido Introducción: Aparición de audio y vídeo

Más detalles

Tema 2 CODIFICACIÓN Y MODULACIÓN DIGITAL COMUNICACIÓN DE DATOS. ESI-CR.UCLM 1

Tema 2 CODIFICACIÓN Y MODULACIÓN DIGITAL COMUNICACIÓN DE DATOS. ESI-CR.UCLM 1 Tema 2 CODIFICACIÓN Y MODULACIÓN DIGITAL ESI-CR.UCLM 1 Técnicas de Codificación Datos digitales, señales digitales Datos analógicos, señales digitales (PCM) Datos digitales, señales analógicas (modem)

Más detalles

T-92, S.L. Interfaz CATV Servicio de Transmisión de Señales de Televisión Digital

T-92, S.L. Interfaz CATV Servicio de Transmisión de Señales de Televisión Digital T-92, S.L. Interfaz CATV Servicio de Transmisión de Señales de Televisión Digital Número de Referencia de la Interfaz de Acceso Versión Descripción del cambio Páginas afectadas Fecha la versión de V.1.1

Más detalles

Redes de Acceso Residencial

Redes de Acceso Residencial 1 xdsl Qué es xdsl? Conjunto de estándares para bucle de abonado sobre hilo de cobre. ADSL: Asymmetrical Digital Subscriber Line SDSL: Symmetrical Digital Subscriber Line HDSL: High data rate Digital Subscriber

Más detalles

Teoría y Aplicaciones de la Informática 2 TRABAJO PRACTICO. MODEM DE 56 Kbps

Teoría y Aplicaciones de la Informática 2 TRABAJO PRACTICO. MODEM DE 56 Kbps UNIVERSIDAD CATOLICA NUESTRA SEÑORA DE LA ASUNCION FACULTAD DE CIENCIAS Y TECNOLOGIA Teoría y Aplicaciones de la Informática 2 TRABAJO PRACTICO MODEM DE 56 Kbps Autores : Gregorio Ariel Guerrero Moral

Más detalles

Sonido digital. Características: altura, timbre e intensidad:

Sonido digital. Características: altura, timbre e intensidad: Sonido digital Podemos definir al sonido como la interpretación que hace nuestro cerebro de las variaciones de presión que genera un objeto vibrante en determinado medio, habitualmente, el aire, sobre

Más detalles

Introducción. Frecuencia, longitud de onda y período. Dominio de tiempo y dominio de frecuencia. Ancho de banda

Introducción. Frecuencia, longitud de onda y período. Dominio de tiempo y dominio de frecuencia. Ancho de banda Introducción El nivel físico es el encargado de establecer una conexión entre dos nodos y de enviar los datos como unos y ceros (u otra forma análoga). Para ello, este nivel define detalles físicos como

Más detalles

Conceptos y fundamentos generales. Curso 2009 2010 Manuel A. Martín Santiago

Conceptos y fundamentos generales. Curso 2009 2010 Manuel A. Martín Santiago Conceptos y fundamentos generales. Curso 2009 2010 Manuel A. Martín Santiago Podemos definir multimedia como aquella tecnología que permite crear contenidos integrando texto, audio, vídeo, imagen y animaciones.

Más detalles

REDES LOCALES BASICO FASE1 PRESENTADO POR JENNER MEJIA CODIGO: 17901846 TUTOR LEANDRO BERNAL ZAMORA

REDES LOCALES BASICO FASE1 PRESENTADO POR JENNER MEJIA CODIGO: 17901846 TUTOR LEANDRO BERNAL ZAMORA REDES LOCALES BASICO FASE1 PRESENTADO POR JENNER MEJIA CODIGO: 17901846 TUTOR LEANDRO BERNAL ZAMORA UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD ESCUELA DE CIENCIAS BASICAS, TECNOLOGIA E INGENIERIA

Más detalles

Capitulo 3: Color, aplicación en Illustrator

Capitulo 3: Color, aplicación en Illustrator Capitulo 3: Color, aplicación en Illustrator La aplicación de colores a las ilustraciones es una tarea habitual en Adobe Illustrator, que requiere un cierto grado de conocimiento sobre los modos y los

Más detalles

PRINCIPIOS SOBRE FORMATOS DIGITALES Y HD

PRINCIPIOS SOBRE FORMATOS DIGITALES Y HD PRINCIPIOS SOBRE FORMATOS DIGITALES Y HD 1.- RESOLUCIÓN Se trata del ancho por el alto que da el total de píxeles de la imagen. Podemos encontrar dos tipos de resoluciones "broadcast": 1.- Resolución SD

Más detalles

8 Sistemas de televisión n digital

8 Sistemas de televisión n digital 8 Sistemas de televisión n digital 1 Digitalización n de imágenes 2 Formación n de la trama digital 3 Transmisión n de la trama 4 Medidas de calidad en video digital 5 Compresión n de imágenes genes: :

Más detalles

Como se deben seleccionar las cámaras

Como se deben seleccionar las cámaras CCTV Básico Como se deben seleccionar las cámaras Las cámaras debe seleccionarse de acuerdo a tres criterios: Sensibilidad: se refiere a la cantidad real de luz visible o infrarroja necesaria para producir

Más detalles

Transporte de audio sobre redes IP

Transporte de audio sobre redes IP REPORTAJE El objeto del artículo es evaluar la viabilidad de utilizar sistemas que permitan el transporte de audio, con la calidad necesaria en las emisoras de radio y TV, a través de redes IP (redes corporativas

Más detalles

Europa. 60/ 30 Alta res. 24/ 24 Alta res. DVD. Televisión

Europa. 60/ 30 Alta res. 24/ 24 Alta res. DVD. Televisión Norm ativa NTSC Lineas Filas 525 Asp ect 4:3 Frec. Campo /cuadro [Hz] 60/30 Uso Televisión EE:UU Color calidad trasmisión (YCrCb) 4:2:2 Entrelazado si PAL 625 4:3 50/ 25 Televisión Europa 4:2:2 si HDT

Más detalles

Libro blanco. Estándar de compresión de vídeo H.264. Nuevas ventajas para la videovigilancia.

Libro blanco. Estándar de compresión de vídeo H.264. Nuevas ventajas para la videovigilancia. Libro blanco Estándar de compresión de vídeo H.264. Nuevas ventajas para la videovigilancia. Índice 1. Introducción 3 2. Desarrollo de H.264 3 3. Cómo funciona la compresión de vídeo 4 4. Perfiles y niveles

Más detalles

Francisco J. Hernández López fcoj23@cimat.mx

Francisco J. Hernández López fcoj23@cimat.mx Francisco J. Hernández López fcoj23@cimat.mx Proviene del verbo latino video, vides, videre que se traduce como el verbo ver Tecnología desarrollada por primera vez para los sistemas de TV, pero actualmente

Más detalles

LIMITE DE SHANON PARA LA CAPACIDAD DE INFORMACIÓN

LIMITE DE SHANON PARA LA CAPACIDAD DE INFORMACIÓN CONVERSION ANALÓGICO A DIGITAL Con el paso del tiempo, las comunicaciones electrónicas han experimentado algunos cambios tecnológicos notables. Los sistemas tradicionales de comunicaciones electrónicas

Más detalles

Vídeo digital. Figura 1

Vídeo digital. Figura 1 VÍDEO DIGITAL Vídeo digital Como ya hemos explicado anteriormente, cuando empleamos el término digital, nos referimos a que la información sobre el contenido está expresada en forma binaria (0 y 1) para

Más detalles

Barrido progresivo y HDTV

Barrido progresivo y HDTV Las funciones y ventajas del barrido progresivo y las razones por las que será beneficioso para la HDTV Fecha: Mayo de 2004 Versión 1.0 TB-2005-05- -1029-ES Los dispositivos informáticos y los sistemas

Más detalles

INTRODUCCIÓN 1. REDES HFC (HYBRID FIBER-COAXIAL)

INTRODUCCIÓN 1. REDES HFC (HYBRID FIBER-COAXIAL) INTRODUCCIÓN La red llamada Hybrid Fyber-Coaxial (HFC), es una tecnología de acceso para redes de televisión por cable, pues ofrece mayores y mejores servicios, ya que tiene mayor ancho de banda y también

Más detalles

TELEVISION DIGITAL ES EL FUTURO. Ing. Luis Fernando Torres Diaz. VP. Tecnología a INTERNATIONAL CABLE Corp.

TELEVISION DIGITAL ES EL FUTURO. Ing. Luis Fernando Torres Diaz. VP. Tecnología a INTERNATIONAL CABLE Corp. TELEVISION DIGITAL ES EL FUTURO. Ing. Luis Fernando Torres Diaz. VP. Tecnología a INTERNATIONAL CABLE Corp. CONTENIDO DVB vs. ATSC. Qué es la Televisión n Digital. Esquema de bloque de la Televisión n

Más detalles

OBJETIVOS Conocer el concepto de vídeo digital. Digitalizar vídeo digital. Distinguir los formatos de vídeo. Editar vídeo.

OBJETIVOS Conocer el concepto de vídeo digital. Digitalizar vídeo digital. Distinguir los formatos de vídeo. Editar vídeo. OBJETIVOS Conocer el concepto de vídeo digital. Digitalizar vídeo digital. Distinguir los formatos de vídeo. Editar vídeo. CONTENIDOS Concepto de vídeo digital. Digitalización de vídeo. Formatos de vídeo.

Más detalles

TRANSPORTE DE VIDEO Y AUDIO EN CALIDAD BROADCASTING POR MEDIO DE REDES MPLS

TRANSPORTE DE VIDEO Y AUDIO EN CALIDAD BROADCASTING POR MEDIO DE REDES MPLS TRANSPORTE DE VIDEO Y AUDIO EN CALIDAD BROADCASTING POR MEDIO DE REDES MPLS juanivan85@gmail.com Resumen El presente documento tiene la finalidad de analizar y diseñar un sistema que permita a los canales

Más detalles

Documento Coordinado de Normas Nro.10:

Documento Coordinado de Normas Nro.10: ORGANIZACIÓN DE LOS ESTADOS AMERICANOS COMISION INTERAMERICANA DE TELECOMUNICACIONES COMITÉ CONSULTIVO PERMANENTE I: TELECOMUNICACIONES Documento Coordinado de Normas Nro.10: RECOMENDACIÓN J.122 DEL UIT-T,

Más detalles

La definición de digital es toda información representada por una serie de pulsos eléctricos discretos basados en un sistema binario (ceros y unos).

La definición de digital es toda información representada por una serie de pulsos eléctricos discretos basados en un sistema binario (ceros y unos). Tratamiento de la Imagen Digital Qué es la imagen digital? La definición de digital es toda información representada por una serie de pulsos eléctricos discretos basados en un sistema binario (ceros y

Más detalles

Comenzando a trabajar con videos.

Comenzando a trabajar con videos. Producción Comenzando a trabajar con videos. El término vídeo se refiere comúnmente a varios formatos: los formatos de vídeo digital, incluyendo DVD, QuickTime, DVC y MPEG-4 y las cintas de vídeo analógico,

Más detalles

Compresión de Vídeo Digital

Compresión de Vídeo Digital WHITE PAPER Compresión de Vídeo Digital Revisión de los Métodos y los Estándares a usar para la Transmisión y el Almacenamiento de Vídeo Actualizado en agosto de 2004 Índice 1.- El cambiante mundo de la

Más detalles

Tratamiento de la Imagen Digital

Tratamiento de la Imagen Digital Tratamiento de la Imagen Digital Qué es la imagen digital? La definición de digital es toda información representada por una serie de pulsos electricos discretos basados en un sistema binario (ceros y

Más detalles

AUDIO Y VIDEO DIGITAL DEP. TECNOLOGÍA / I.E.S. ÁFRICA

AUDIO Y VIDEO DIGITAL DEP. TECNOLOGÍA / I.E.S. ÁFRICA AUDIO Y VIDEO DIGITAL MEDIOS INTEGRADORES DE UNA CREACION MULTIMEDIA TEXTO: debe ser accesible y dinámico. Aportar ideas claras y concisas, evitando párrafos largos. IMAGEN Y VIDEO : dibujos o fotografías

Más detalles

Capítulo 2. Sistemas de comunicaciones ópticas.

Capítulo 2. Sistemas de comunicaciones ópticas. Capítulo 2 Sistemas de comunicaciones ópticas. 2.1 Introducción. En este capítulo se describen los diferentes elementos que conforman un sistema de transmisión óptica, ya que son elementos ópticos que

Más detalles

REDES DE COMPUTADORES

REDES DE COMPUTADORES REDES DE COMPUTADORES TEMA 2 TRANSMISIÓN DE DATOS Y TEORÍA DE LA INFORMACIÓN 1 TRANSMISIÓN DE DATOS Y TEORÍA DE LA INFORMACIÓN 1.- Conceptos y definiciones básicas. 1.1.- Elementos de un sistema de comunicación.

Más detalles

Tema 1. Introducción a las redes de comunicaciones.

Tema 1. Introducción a las redes de comunicaciones. Tema 1. Introducción a las redes de comunicaciones. 1.- Cuando se realiza una llamada telefónica local a otra persona, qué tipo de configuración se está utilizando? a) Punto a punto b) Punto a multipunto

Más detalles

Características de los servicios de transferencia de contenidos multimedia

Características de los servicios de transferencia de contenidos multimedia Características de los servicios de transferencia de contenidos multimedia formador Ezequiel Llarena Borges formador Ezequiel Llarena Borges 1 Compresión o codificación del audio Tipos de compresión (Formatos

Más detalles

UD - 5 TELEVISIÓN DIGITAL. Eduard Lara

UD - 5 TELEVISIÓN DIGITAL. Eduard Lara UD - 5 TELEVISIÓN DIGITAL Eduard Lara 1 1. DIGITALIZACIÓN DE IMÁGENES Las técnicas digitales se llevan utilizando desde hace algunos años dentro del ámbito profesional de la televisión, debido a las altas

Más detalles

CAPITULO II PROTOCOLOS, ARQUITECTURA DE REDES Y MODELO OSI/ISO.

CAPITULO II PROTOCOLOS, ARQUITECTURA DE REDES Y MODELO OSI/ISO. CAPITULO II PROTOCOLOS, ARQUITECTURA DE REDES Y MODELO OSI/ISO. Competencias a desarrollar: Conocer la importancia de la estandarización en redes de datos. Identificar los estándares. Saber los tipos de

Más detalles

INDICE 2. Generación de Señales 3. Transmisión de Modulación de Amplitud 4. Recepción de Modulación de Amplitud

INDICE 2. Generación de Señales 3. Transmisión de Modulación de Amplitud 4. Recepción de Modulación de Amplitud INDICE Prefacio 1. Introducción a las Comunicaciones Electrónicas 1 Introducción 1 El espacio electromagnetismo 4 Ancho de banda y capacidad de información 7 Modos de transmisión 9 Arreglos de circuitos

Más detalles

ISDB-T. Seminario de TV digital en Cuenca 4 y 5 de Diciembre 2008 DiBEG/ARIB/MIC JAPAN Rafael Perez Cruz

ISDB-T. Seminario de TV digital en Cuenca 4 y 5 de Diciembre 2008 DiBEG/ARIB/MIC JAPAN Rafael Perez Cruz Contenidos técnicos t de sistema ISDB-T Seminario de TV digital en Cuenca 4 y 5 de Diciembre 2008 DiBEG/ARIB/MIC JAPAN Rafael Perez Cruz 2 Cuales son las ventajas del estándar, para movilidad, portabilidad,

Más detalles

Número de referencia de la Interfaz de Acceso

Número de referencia de la Interfaz de Acceso Interfaz CATV Servicio de Televisión Analógica Número de referencia de la Interfaz de Acceso Versión Descripción del cambio Páginas afectadas Fecha de la versión V.1.1 Primera publicación de la Interfaz

Más detalles

Qué es la Telefonía sobre IP (ToIP)?

Qué es la Telefonía sobre IP (ToIP)? Telefonía sobre IP (ToIP) Luís Merayo Servicios Qué es la telefonía sobre IP? Cómo funciona? Qué ventajas ofrece al usuario? Resuelva estas y otras dudas en este interesante artículo. Qué es la Telefonía

Más detalles

ESPECIFICACIÓN DE INTERFACES PÚBLICAS

ESPECIFICACIÓN DE INTERFACES PÚBLICAS ESPECIFICACIÓN DE INTERFACES PÚBLICAS INTERFAZ PARA EL ACCESO A SERVICIOS DE TELEVISIÓN POR CABLE Código: ONO.CATV.01 Versión: 3.0 Fecha: 11/04/2008 Este documento no tiene garantía de estar en vigor.

Más detalles

SISTEMA DE TV DIGITAL TBA-CTI CODIFICADOR TBA-E201

SISTEMA DE TV DIGITAL TBA-CTI CODIFICADOR TBA-E201 1 SISTEMA DE TV DIGITAL TBA-CTI CODIFICADOR TBA-E201 Convierte la señal de video y audio banda base analógica a un tren de datos STPS digital. Utiliza la codificación MPEG-2 4:2:0 MP@ML para el video y

Más detalles

SERVIDORES DE VIDEO EN APLICACIONES DE VIDEO EN DEMANDA (VoD)

SERVIDORES DE VIDEO EN APLICACIONES DE VIDEO EN DEMANDA (VoD) SERVIDORES DE VIDEO EN APLICACIONES DE VIDEO EN DEMANDA (VoD) Fernando Rodrigues Da Silva ferrodda@hotmail.com RESUMEN El Video en Demanda ha comenzado a popularizarse alrededor del mundo ofreciendo una

Más detalles

Universidad de Extremadura Licenciatura en Comunicación n Audiovisual. TECNOLOGÍA A DE MEDIOS AUDIOVISUALES I Asignatura troncal de 2º 2

Universidad de Extremadura Licenciatura en Comunicación n Audiovisual. TECNOLOGÍA A DE MEDIOS AUDIOVISUALES I Asignatura troncal de 2º 2 Universidad de Extremadura Licenciatura en Comunicación n Audiovisual TECNOLOGÍA A DE MEDIOS AUDIOVISUALES I Asignatura troncal de 2º 2 Prof: José Luis Garralón Velasco Autorizada la reproducción, citando

Más detalles

RECOMENDACIÓN UIT-R BT.1369 *

RECOMENDACIÓN UIT-R BT.1369 * Rec. UIT-R BT.1369 1 RECOMENDACIÓN UIT-R BT.1369 * Principios básicos aplicables a una familia mundial común de sistemas para la prestación de servicios de televisión interactivos (Cuestión UIT-R 16/6)

Más detalles

CAPÍTULO 2 PROCESAMIENTO DIGITAL DE IMÁGENES

CAPÍTULO 2 PROCESAMIENTO DIGITAL DE IMÁGENES CAPÍTULO PROCESAMIENTO DIGITAL DE IMÁGENES En este capítulo se presentan de manera breve, una explicación de la visión, las imágenes digitales y como son capturadas por medios electrónicos, el campo encargado

Más detalles

UNSE PLANIFICACION TELECOMUNICACIONES

UNSE PLANIFICACION TELECOMUNICACIONES UNSE PLANIFICACION DE TELECOMUNICACIONES 2012 UNIVERSIDAD NACIONAL DE SANTIAGO DEL ESTERO FACULTAD DE CIENCIAS EXACTAS Y TECNOLOGÍAS CARRERA: INGENIERIA ELECTRÓNICA PLAN: 2008 PLANIFICACIÓN DE LA ASIGNATURA

Más detalles

Unidad II Conmutación.

Unidad II Conmutación. Unidad II Conmutación. 2 Multicanalización (Frecuencia, Tiempo) Multiplexación. Se le llama al conjunto de técnicas que permiten la transmisión simultánea de múltiples señales a través de un solo enlace

Más detalles

Pruebas ISDB-T en Canal 7 Argentina Proyecto TV Digital Terrestre. Transferencia tecnológica entre Argentina y Japón

Pruebas ISDB-T en Canal 7 Argentina Proyecto TV Digital Terrestre. Transferencia tecnológica entre Argentina y Japón Pruebas ISDB-T en Canal 7 Argentina Proyecto TV Digital Terrestre Transferencia tecnológica entre Argentina y Japón Algunos Términos y Conceptos en TV digital.. de alta definición=hdtv (High Definition

Más detalles

TELEVISION CATV. La televisión por cable o CATV, comúnmente denominada video cable o

TELEVISION CATV. La televisión por cable o CATV, comúnmente denominada video cable o TELEVISION CATV La televisión por cable o CATV, comúnmente denominada video cable o simplemente cable, es un servicio de sistema de televisión se ofrece a través de señales de RF que se transmiten a los

Más detalles

COMPRESIÓN DE VIDEO EN EL ESTÁNDAR MPEG-2

COMPRESIÓN DE VIDEO EN EL ESTÁNDAR MPEG-2 COMPRESIÓN DE VIDEO EN EL ESTÁNDAR MPEG-2 SUMARIO INTRODUCCIÓN PERFILES Y NIVELES MPEG-2 MODOS ESCALABLES MODOS DE PREDICCIÓN ESPECÍFICOS MPEG-2 (IMÁGENES ENTRELAZADAS) LA EXTRUCTURA" FRAME" LA EXTRUCTURA

Más detalles

Modelo para las Comunicaciones y Transmisión de Datos

Modelo para las Comunicaciones y Transmisión de Datos Modelo para las Comunicaciones y Transmisión de Datos Mg. Gabriel H. Tolosa. tolosoft@unlu.edu.ar "You see, wire telegraph is a kind of a very, very long cat. You pull his tail in New York and his head

Más detalles

Yull Arturo Matamba Valencia Andrés Xavier Rogel Valarezo

Yull Arturo Matamba Valencia Andrés Xavier Rogel Valarezo Yull Arturo Matamba Valencia Andrés Xavier Rogel Valarezo Sustentación de velocidades de usuario hasta 144 kbit/s, con cobertura y movilidad completas en zonas extensas y hasta 2 Mbit/s, en situaciones

Más detalles

Av. Albarellos 2662 1º piso CABA - Argentina (C1419FSQ)

Av. Albarellos 2662 1º piso CABA - Argentina (C1419FSQ) LA TELEVISIÓN Breve historia de la televisión primera parte. La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia. Esta transmisión puede ser efectuada

Más detalles

INTRODUCCION A LA COMPRESION DE IMAGEN

INTRODUCCION A LA COMPRESION DE IMAGEN INTRODUCCION A LA COMPRESION DE IMAGEN Constantino Pérez Vega Dpto. de Ingeniería de Comunicaciones Curso 2009-2010 inicio de blanking horizontal Inicio de línea digital activa T(ns) = 1000/13.5 OH 12T

Más detalles

COMPRESION DE VIDEO Constantino Pérez Vega Departamento de Ingeniería de Comunicaciones

COMPRESION DE VIDEO Constantino Pérez Vega Departamento de Ingeniería de Comunicaciones Compresión de video 1 COMPRESION DE VIDEO Departamento de Ingeniería de Comunicaciones 6.0 Introducción En este capítulo se tratan los principios básicos de la compresión de vídeo, orientado principalmente

Más detalles

GUIA INTERACTIVA APTIV DIGITAL (Versión 3.5) DECODIFICADORES MOTOROLA DCT6412-DCT6416

GUIA INTERACTIVA APTIV DIGITAL (Versión 3.5) DECODIFICADORES MOTOROLA DCT6412-DCT6416 GUIA INTERACTIVA APTIV DIGITAL (Versión 3.5) DECODIFICADORES MOTOROLA DCT6412-DCT6416 FUNCIONES GENERALES GRABAR UN PROGRAMA DESDE LA GUIA Realice fácilmente la grabación de un programa seleccionando el

Más detalles

Aplicaciones Telemáticas Avanzadas

Aplicaciones Telemáticas Avanzadas Tema 1. ATA 1 Aplicaciones Telemáticas Avanzadas 2005/2006 Tema 1. ATA 2 Temario Aplicaciones Multimedia 1. Caracterización n de las Aplicaciones Multimedia 2. Programación n multimedia sobre Internet

Más detalles

Introducción a la compresión de video bajo el estándar MPEG-2.

Introducción a la compresión de video bajo el estándar MPEG-2. Introducción a la compresión de video bajo el estándar MPEG-2. Monografía para el curso de Codificación de Imágenes y Video. Instituto de Ingeniería Eléctrica de la Facultad de Ingeniería. Noviembre de

Más detalles

VoIP: Una Puerta hacia la Convergencia. Page 1

VoIP: Una Puerta hacia la Convergencia. Page 1 VoIP: Una Puerta hacia la Convergencia Page 1 Introducción a VoIP La Voz sobre IP, es el envío, en tiempo real, de voz entre dos o más participantes a través de redes, usando protocolos estándares de Internet,

Más detalles

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos MODULACIÓN TRANSMISION DIGITAL La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda

Más detalles

María Belén Egüez Del Pozo 1, César Yépez Flores 2

María Belén Egüez Del Pozo 1, César Yépez Flores 2 PROCESO DE CONVERSIÓN DE TRANSMISIÓN ANÁLOGA A DIGITAL EN UN SISTEMA DE TELEVISIÓN POR CABLE MANTENIENDO CONTINUIDAD CON LOS OTROS SERVICIOS QUE SE TRANSMITEN EN LA RED HFC María Belén Egüez Del Pozo 1,

Más detalles

SISTEMAS DE COMUNICACIONES.

SISTEMAS DE COMUNICACIONES. SISTEMAS DE COMUNICACIONES. Conceptos Básicos. Los sistemas de comunicación están compuestos por tres partes principales: transmisor, medio o canal de comunicación y receptor. En un sistema de comunicación,

Más detalles

Formatos de audio y uso didáctico

Formatos de audio y uso didáctico Formatos de audio y uso didáctico Resumen El audio digital y su formato se define por dos característica tamaño de fichero y calidad. Se estudian algunos parámetros de calidad como son frecuencia, tasa

Más detalles

CAPITULO 8. ADSL Y TELEVISIÓN POR CABLE

CAPITULO 8. ADSL Y TELEVISIÓN POR CABLE CAPITULO 8. ADSL Y TELEVISIÓN POR CABLE RED TELEFÓNICA: o Surgió a finales del siglo XIX. o La red fija, que se identifica como Sistema básico de telefonía antigua (POST, Plain Old Telephone System), era

Más detalles

Cabecera de los mensajes de correo electrónico RFC 822

Cabecera de los mensajes de correo electrónico RFC 822 Internet: Aplicaciones Transmisión de datos y redes de ordenadores Internet: Aplicaciones La familia de protocolos TCP/IP La capa de red en Internet El protocolo IP Protocolos auxiliares La capa de transporte

Más detalles

ISDB-T Seminar ISDB-T Aplicaciones

ISDB-T Seminar ISDB-T Aplicaciones ISDB-T Seminar ISDB-T Aplicaciones Contenido Contenidos para ISDB-T Aplicaciones para recepción n fija HDTV HDTV o Programas multicanal en SDTV Data Data Broadcasting Advanced Caption EPG EPG (Guía a de

Más detalles

CAPÍTULO 11: Audio y video desde la Web

CAPÍTULO 11: Audio y video desde la Web CAPÍTULO 11: Audio y video desde la Web 129 Audio y Video on demand En los últimos dos capítulos analizamos la posibilidad de interactuar por parte del usuario de Internet en la Web multimedial, a través

Más detalles

GENERALIDADES DE LA COMUNICACIÓN DE DATOS

GENERALIDADES DE LA COMUNICACIÓN DE DATOS Comunicaciones I Capítulo 1 GENERALIDADES DE LA COMUNICACIÓN DE DATOS 1 El Sistema de Comunicación Sistema de comunicación: Lleva a cabo el intercambio de información entre dos entes ubicados en los extremos

Más detalles

REDES DE COMUNICACIONES INDUSTRIALES 2º semestre 2006-2007. Nuria Oliva Alonso

REDES DE COMUNICACIONES INDUSTRIALES 2º semestre 2006-2007. Nuria Oliva Alonso REDES DE COMUNICACIONES INDUSTRIALES 2º semestre 2006-2007 Nuria Oliva Alonso CALENDARIO Y TEMAS U.D.1: 6 temas : 4 tutorías U.D.2: 6 temas : 4 tutorías U.D.3: 6 temas : 4 tutorías 1 tutorías de repaso

Más detalles

Características Técnicas de las Interfaces de TELEFONICA DE ESPAÑA, S.A.U.

Características Técnicas de las Interfaces de TELEFONICA DE ESPAÑA, S.A.U. INTERFAZ de TELEFÓNICA DE ESPAÑA, S.A.U. ITE-BA-004 Versión 1ª 02-02-2001 Características Técnicas de las Interfaces de TELEFONICA DE ESPAÑA, S.A.U. Interfaz de Línea para el Acceso Indirecto al Bucle

Más detalles

FORMATOS DE COMPRESIÓN DE DATOS. Diseño de Redes. Bonaventura, Dany Perez, Juan Penagos, José Useche, Julio

FORMATOS DE COMPRESIÓN DE DATOS. Diseño de Redes. Bonaventura, Dany Perez, Juan Penagos, José Useche, Julio FORMATOS DE COMPRESIÓN DE DATOS. Diseño de Redes. Bonaventura, Dany Perez, Juan Penagos, José Useche, Julio Maracay, marzo de 2009 Taxonomía de protocolos XDR: (External Data Representation) es un protocolo

Más detalles

COMUNICACIONES DE DATOS. TRANSMISIÓN DE DATOS

COMUNICACIONES DE DATOS. TRANSMISIÓN DE DATOS TEMA 1 COMUNICACIONES DE DATOS. TRANSMISIÓN DE DATOS 1.1. Modelo simplificado de comunicaciones Objetivo: intercambiar información entre dos entidades. Modelo en bloques. Fig 1.1 Fuente o Genera los datos

Más detalles

EL MARKETING RELACIONAL Y NUEVAS TENDENCIAS DE MARKETING

EL MARKETING RELACIONAL Y NUEVAS TENDENCIAS DE MARKETING APARTADO: 1 DIAPOSITIVA Nº: 1 La televisión digital PDF Nº 1: La televisión digital La televisión digital Tipos de televisión digital TDC Televisión Digital por Cable Se refiere a la transmisión de señales

Más detalles

TEMA 1 INTRODUCCION AL PROCESAMIENTO DIGITAL DE SEÑALES

TEMA 1 INTRODUCCION AL PROCESAMIENTO DIGITAL DE SEÑALES TEMA 1 INTRODUCCION AL PROCESAMIENTO DIGITAL DE SEÑALES CURSO 2010/2011 OBJETIVOS y BIBLIOGRAFIA El objetivo fundamental de este tema es proporcionar una visión panorámica del Procesamiento Digital de

Más detalles

Tema 1. Introducción a la multimedia y conceptos básicos.

Tema 1. Introducción a la multimedia y conceptos básicos. Tema 1. Introducción a la multimedia y conceptos básicos. 1.1. QUÉ ES MULTIMEDIA?. 1.2. TIPOS DE INFORMACIÓN O MEDIOS QUE PODEMOS ENCONTRAR EN UN SISTEMA MULTIMEDIA. 1.2.1. Texto. 1.2.2. Gráficos. 1.2.3.

Más detalles

TECNOLOGÍA 4º ESO TEMA 3: Tecnologías de la comunicación

TECNOLOGÍA 4º ESO TEMA 3: Tecnologías de la comunicación Tecnología 4º ESO Tema 3: Tecnologías de la comunicación Página 1 TECNOLOGÍA 4º ESO TEMA 3: Tecnologías de la comunicación Tecnología 4º ESO Tema 3: Tecnologías de la comunicación Página 2 Índice de contenido

Más detalles

11537 - TAD - Televisión Analógica y Digital

11537 - TAD - Televisión Analógica y Digital Unidad responsable: Unidad que imparte: Curso: Titulación: Créditos: 2015 230 - ETSETB - Escuela Técnica Superior de Ingeniería de Telecomunicación de Barcelona 739 - TSC - Departamento de Teoría de la

Más detalles

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES.

DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. DISEÑO DE UN ALGORITMO PARALELO PARA CODIFICACIÓN DE VIDEO MPEG4, SOBRE UN CLUSTER DE COMPUTADORAS PERSONALES. Autores: Abelardo Rodríguez L.*, Manuel Pérez M. **, Alberto González T. **, José Hernández

Más detalles

INTRODUCCIÓN Videoconferencia sobre Frame Relay

INTRODUCCIÓN Videoconferencia sobre Frame Relay INTRODUCCIÓN Videoconferencia sobre Frame Relay Homero Andrango María Fernanda Jerez Patricia Yacelga Se denomina videoconferencia al sistema que permite a un grupo de personas ubicadas en lugares distantes

Más detalles

Introducción general a la compresión de datos multimedia

Introducción general a la compresión de datos multimedia Introducción general a la compresión de datos multimedia Necesidad de la compresión La mayoría de las aplicaciones multimedia requieren volúmenes importantes de almacenamiento y transmisión. CD-ROM 640

Más detalles

Descriptivos, PCM y comprimidos.

Descriptivos, PCM y comprimidos. Formatos digitales de sonido Descriptivos, PCM y comprimidos. Formatos descriptivos. Archivos MIDI [Musical Instrument Digital Interface]. El archivo MIDI no almacena "sonido grabado", sino las indicaciones

Más detalles

QOS & QOE MONITORING PRODUCTOS PARA EL ANÁLISIS DE PARÁMETROS TÉCNICOS WWW.3WAY.COM.AR . ALARMAS . CAPAS DE TRANSPORTE .

QOS & QOE MONITORING PRODUCTOS PARA EL ANÁLISIS DE PARÁMETROS TÉCNICOS WWW.3WAY.COM.AR . ALARMAS . CAPAS DE TRANSPORTE . QOS & QOE MONITORING PRODUCTOS PARA EL ANÁLISIS DE PARÁMETROS TÉCNICOS ViDeus le acerca una completa suite de productos para el análisis de parámetros técnicos relacionados con el monitoreo de capas físicas

Más detalles