Sistemas de comunicación

Documentos relacionados
Última modificación: 1 de julio de

Sistemas de comunicación

Ejercicios sobre probabilidades y entropías

EL4005 Principios de Comunicaciones Clase No.24: Demodulación Binaria

Fibra óptica (Calculos) Ing. Waldo Panozo

Sistemas de comunicación

DESCRIPCIÓN DEL PRODUCTO

Teoría de la Información - Modelo de comunicación

Sumario. Presentación... 15

01/10/ Señales, codificación y modulación. Contenido. a. Señales digitales. a. Señales digitales b. Conversión digital a digital

SISTEMA DE TRANSPORTE EN TELEVISION DIGITAL

Tipos de Filtros Introducción

Redes y Comunicaciones

CAPÍTULO 4 LOS MEGAPIXELS


Teoría de Telecomunicaciones I

ALTERACIONES EN LAS TRANSMISIONES

SEPTIEMBRE Opción A

Tema 2: modulaciones analógicas y ruido (sol)

EL4005 Principios de Comunicaciones Clase No.22: Señalización Ortogonal

PRÁCTICA I. Ejercicios Teóricos

Tema: Codificación de canal

Curso de Redes Computadores 1 Tema 6_5 Métricas de desempeño en redes de computadores

Sistema de conocimientos Definición de sonido y video digital. Formatos de sonido Formatos de video Procesamiento digital de sonido y video.

Guía de Ejercicios 2 Receptor Óptimo para Canal Gaussiano

Comunicaciones I. Capítulo 4 CODIFICACIÓN Y MODULACIÓN

Cálculo de Probabilidades II Preguntas Tema 1

Variables aleatorias bidimensionales discretas

TEMA 2: MODULACIONES LINEALES

SISTEMAS DE COMUNICACION. Ingeniería en Electrónica Sexto semestre M.C. Maribel Tello Bello 2010-II

RECOMENDACIÓN UIT-R F *

Consideración del Margen de Desvanecimiento con ICS Telecom en Planeación de Redes de Microceldas (NLOS)

Generación de variables aleatorias continuas Método de rechazo

RADIOCOMUNICACIÓN. PROBLEMAS TEMA 2 Ruido e interferencias en los sistemas radioeléctricos

CODIFICACIÓN DE LA FUENTE

FUNDAMENTOS DE TELECOMUNICACIONES MULTIPLEXACIÓN. Marco Tulio Cerón López

Examen de Matemáticas Aplicadas a las CC. Sociales II (Junio 2007) Selectividad-Opción A Tiempo: 90 minutos

Señales y Sistemas. Señales y Clasificación Sistemas y Clasificación Respuesta al impulso de los sistemas. 5º Curso-Tratamiento Digital de Señal

Ejercicio 1 (20 puntos)

2.5.6 CODIFICACIÓN PARA EL FORMATO DES CARACTERÍSTICAS GENERALES DEL ESTÁNDAR HEVC Ó H Metodología

ESTRUCTURA Y TECNOLOGÍA DE COMPUTADORES I CAPÍTULO III ARITMÉTICA Y CODIFICACIÓN

Teoría de las Comunicaciones. Claudio Enrique Righetti

Práctica 5: Modulaciones digitales

TECNOLOGIAS DE TRANSMISION Y CONTROL DE ERRORES EN TV DIGITAL

Que es un modem? MODEMS. Componentes básicos de la transmisión. Que es un modem?

Aplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación

GUÍA DE EJERCICIOS No. 3. Las tres emisoras se encuentran a igual distancia del receptor (igual atenuación de señal recibida).

Trabajo opcional tema 4: modulación

Tema 4: Probabilidad y Teoría de Muestras

Alcances de una cámara de video seguridad.

MC-250 Internet of Things: Introducción a las Radios Definidas por Software (SDR) Profesor: Cesar Azurdia Auxiliar: Javier Rojas

SISTEMAS DE COMUNICACIÓN. Clase 1: Introducción

Tema 5 Algunas distribuciones importantes

CEDEHP Profesor: Agustín Solís M. CUESTIONARIO NRO. 2

Codificación Fuente 7 Redes de Telecomunicaciones 8 4 Total de Horas Suma Total de las Horas 96

1. Introducción a las comunicaciones

Tema 3. Compresión de la información de video. Contenidos

CONJUNTO R n. = (5, 2, 10) de 3, son linealmente. = (2,1,3) y v 3. = (0,1, 1) y u 3. = (2,0,3, 1), u 3. = (1,1, 0,m), v 2

Nº Hermanos 30 Alumnos X i f i P(X i ) 0 8 0, , , , , ,00

G(θ) = máx{g 1 (θ), G 2 (θ)}

EL4005 Principios de Comunicaciones Clase No.3: Modelos de Canales y Modulación de Amplitud I

UNIVERSIDAD DE VALLADOLID

Electrónica 2. Práctico 3 Alta Frecuencia

MATEMÁTICAS 1º BACH. C. N. Y S. 25 de enero de 2010 Geometría y Logaritmos

Modulación PSK y QAM. Adolfo Santana

Salida HDMI derivada 1 x HDMI 2.0 con conector tipo A. Salida HDMI 1 x HDMI 2.0 con conector tipo A.

Teorema de Bayes(6) Nos interesan las probabilidades a posteriori o probabilidades originales de las partes p i :

APUNTES DOCENTES ASIGNATURA: ANALISIS NUMERICO ASIGNATURA: ANALISIS NUMERICO UNIDADES TECNOLÓGICAS DE SANTANDER

Pruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis

Digitalización y compresión de vídeo

Dpto. de Electrónica 2º GM - EMTT. Tema 10 Dispositivos de entrada y Salida

Tema IV. Comunicaciones digitales.

Representación de números enteros: el convenio exceso Z

Tema IV. Comunicaciones digitales.

Prueba Integral Lapso /6

Caracterización del canal de radio

Unidad Temática 3: Probabilidad y Variables Aleatorias

Trabajo opcional tema 3: modulación lineal

LECTURA 01: LA DISTRIBUCIÓN NORMAL GENERAL. LA DISTRIBUCIÓN NORMAL ESTÁNDAR (PARTE I). TEMA 1: LA DISTRIBUCION NORMAL GENERAL.

Codificación de Fuente y de Canal

El momento k-ésimo para una variable aleatoria discreta respecto del origen, es. n = esperanza matemática de X

ASÍ FUNCIONA LA CONVERSIÓN ANALÓGICO- DIGITAL DIGITALIZACIÓN DE LA SEÑAL ANALÓGICA

Probabilidad, Variables aleatorias y Distribuciones

Soportes de almacenamiento digital en vídeo

Conceptos Básicos de Inferencia

2.3 PROPIEDADES DE LA PROBABILIDAD

CCNA 1 v3.0 Módulo 2 Aspectos Básicos de Networking Docente: Mg. Robert Romero Flores

Pruebas de modos y extensiones en una imagen

Entre las aplicaciones más importantes para los satélites cabe destacar:

Transcripción:

Sistemas de comunicación Práctico 6 Teoría de la Información Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil. Además puede tener un número, como 3.-4 que indica el número de ejercicio del libro del curso, Communication Systems, 3th. edition. Bruce A. Carlson. Ejercicio Un teclado numérico tiene los números 0,,2...9. Se asume que cada tecla es utilizada en forma equiprobable. Calcule con qué cadencia deben ser oprimidas las mismas para generar un flujo de información de 2 bit/s. Ejercicio 2 (5.-2) De un mazo de 52 cartas se elige una al azar. (a) Hallar la información en bits que se tiene cuando se conoce que la carta es: de corazones una figura una figura de corazones (b) Cuánta información se necesita para identificar la carta si, se sabe que es roja. Ejercicio 3 (5.-8) Calcular la tasa de información de una fuente telegráfica que utiliza dos símbolos, el punto y la raya. El punto tiene una duración de 0.2s. La raya tiene el doble de duración pero es la mitad de probable. Ejercicio 4 Para una fuente binaria: (a) Mostrar que la entropía, H, es máxima cuando la probabilidad de enviar un es igual a la probabilidad de enviar un 0. (b) Hallar el valor máximo de la entropía.

Ejercicio 5 Se tiene una fuente S con símbolos {s,s 2,...,s 6 }, con probabilidades 0.4, 0.3, 0., 0., 0.06 y 0.04 respectivamente. (a) Hallar la entropía de la fuente. (b) Considerar una codificación binaria con largo de palabra fijo. Indicar el mínimo largo de palabra para que la codificación sea adecuada. (c) Considerar una codificación de Huffman. Calcular el largo medio del código obtenido. Ejercicio 6 Considerar un canal con la propiedad de que x i y y j son estadísticamente independientes para todo i, j. Mostrar que Ejercicio 7 H(X Y) = H(X) y I(X,Y) = 0 Canal Binario Simétrico. Considerar el modelo de un canal binario simétrico, representado en la figura: x -alfa y alfa alfa x2 -alfa y2 donde: P(x ) = p y P(y x 2 ) = P(y 2 x ) = α. (a) Calcular la información mutua en función de p y α (b) Discutir qué valores toma α cuando la potencia del ruido es muy pequeña o muy grande. Ejercicio 8 Obtener analíticamente las características de la figura siguiente, correspondiente a un canal analógico de ancho de banda B, contaminado con ruido blanco gaussiano aditivo, de densidad espectral de potencia G(f) = η/2. 2

20 5 S/, db 0 5 = C 0 > C 0. 0.2 0.5 2 5 0 20 -.6 db B/ Ejercicio 9 (5.3-) Un ingeniero dice haber diseñado un sistema de comunicación analógico que permite obtener: (S/N) D = 60dB cuando S /(ηb T ) = 5dB y B T = 0W, donde B T es el ancho de banda del canal usado y W es el ancho de banda de la señal a transmitir. Usted le creería? Por qué? Ejercicio 0 Se pretende transmitir imágenes de televisión digital a partir de una fuente que genera una matriz de 480 500 elementos de imagen (pixels), donde cada pixel puede tomar 32 valores de intensidad. Suponga que se generan 30 imágenes por segundo.(esta fuente de imágenes digitales es similar a los estándares adoptados para TV digital.) Todos los pixels se consideran independientes, y los niveles de intensidad equiprobables. (a) Hallar la velocidad de transferencia de información (bit/s). (b) Suponer que la imagen de TV se transmitirá por un canal de 4,5MHz de ancho de banda con una relación señal a ruido de 35dB. Hallar la capacidad del canal (bit/s). (4,5MHz es el ancho de banda utilizado para transmitir una imagen de TV analógica.) (c) Discutir cómo pueden ser modificados los parámetros de la parte (a) para permitir la transmisión de TV color sin incrementar el valor requerido de. (Nota: en TV cromática se debe enviar información de luminancia y cromas; la luminacia es una señal que lleva la información de brillo y las cromas son dos señales que llevan la información de color.) 3

Ejercicio Solución La tasa de símbolos r se relaciona con la entropía H y con la tasa de información según la expresión: = rh La probabilidad de cada una de las teclas es : P(Tecla) = 0. Por lo que la entropía de la fuente S={0,,2,... 9} es: H(S) = x is Despejando r se tiene: Ejercicio 2 (a) de corazones p(x i )log 2 p(x i ) = 0 log 20 = log 2 0 bits/simb x is r = H = 2 bits/seg log 2 0 bits/simb = 0,6simb/seg, entonces la infor- La probabilidad de una carta de corazones es 3 mación es I(corazones) = log 2 4 = 2 bits. una figura La probabiidad de una figura es 2 3 I(figura) = log 2 3 = 2,54 bits. una figura de corazones 52 = 3 3 52 = 4, entonces la información es La probabidad de una figura de corazones es 3 52, entonces la información 52 es I(figuradecorazones) = log 2 3 = 4,54 bits. (b) La información que se tiene al identificar la carta es log 2 (52) bits. De esta informacion sólo se conoce que la carta es roja y como P(roja) = 2, la información que se tiene es I = log 2 2 = bit. Por tanto, la información que resta para conocer la carta es I(carta) I(roja) = log 2 (52) = log 2 (26) bits. Otra forma de resolver el problema es considerando la probabilidad de la carta conociendo que es roja, es decir P(carta/roja) = 26. De esta manera llegamos al mismo resultado I = log 2 P(carta/roja) = log 2(26) bits Ejercicio 3 La cadencia media de símbolos esta dada por: r = 0,2 seg simb.2 seg = 30 3 +0,4simb. 8 3 simb seg 4

La entropía es: Por tanto, H = 2 3 log 3 2 2 + 3 log 23 = 0,983 bits simb = r.h = 3,44 bits seg Ejercicio 4 (a) Sea p la probabilidad de enviar un uno. La probabilidad de enviar un 0 será entonces p, y la entropía queda planteada de la siguiente forma: H(p) = p.log p +( p).log p Para saber cuándo es máxima sólo falta derivar respecto a p: H = log p p2 p 2 log p +( p). p ( p) 2 = log p p En el máximo se debe cumplir H = 0 Tenemos que p p = y entonces: log p p = 0 p = 2 Falta verificar que efectivamente es un máximo (H < 0): H (p) = p p. p ( p) p 2 = ( p)p = 4 (b) H( 2 ) = 2. 2.log2 = log 22 bits simb = bit simb Ejercicio 5 (a) H(S) = P log 2 s + P 2 log 2 s 2 + P 3 log 2 s 3 + P 4 log 2 s 4 + P 5 log 2 P 6 log 2 s 6 = 2.435 bits/símbolo. s 5 + (b) El mínimo largo de palabra de código para codificar 6 símbolos es 3 bits. (c) Considerando la extensión que se muestra en el cuadro, el largo de código resulta: L = 0.4+2 0.3+3 0.+4 0.+5 0.06+5 0.04 = 2.2 bits/símbolo. Nótese que con este código se llega muy cerca de la entropía de la fuente. Además, aunque la extensión no es única, el largo no depende de la extensión elegida. 5

Fuente original Fuente reducida Símbolos Prob. Código S S 2 S 3 S 4 s 0.4 0.4 0.4 0.4 0.6 0 s 2 0.3 00 0.3 0 0.3 00 0.3 00 0.4 s 3 0. 0 0. 0 0.2 00 0.3 0 s 4 0. 000 0. 000 0. 0 s 5 0.06 000* *0. 00 s 6 0.04 00* Cuadro : Síntesis de un código de Huffman. Ejercicio 6 Aplicando la definición: H(X Y) = X,Y P(x i,y j ).log 2 P(x i y j ) Como x i y y j son independientesse cumple quep(x i,y j ) = P(x i ).P(y j ) y que P(x i y j ) = P(x i ), por lo que: H(X Y) = Y X P(x i )P(y j ).log 2 P(x i ) = Y H(X Y) = X Para la segunda parte, aplicando la definición: I(X,Y) = X,Y Ejercicio 7 (a) I(X,Y) = X,Y I(X,Y) = X,Y P(y j ) X P(x i ).log 2 P(x i ) = H(X) P(x i,y j ).log 2 P(x i y j ) P(x i ) P(x i ).log 2 P(x i ) P(x i ) P(x i )P(y j ).log 2 P(x i ) = P(x i )P(y j ).0 = 0 = 0 X,Y X,Y P(x i,y j ) P(x i,y j ).log 2 P(x i )P(y j ) = P(y j /x i ) P(x i,y j ).log 2 P(y j ) X,Y P(y ) = P(x )P(y /x )+P(x 2 )P(y /x 2 ) = p( α)+( p)α P(y 2 ) = P(x )P(y 2 /x )+P(x 2 )P(y 2 /x 2 ) = pα+( p)( α) I(X,Y) = P(x )P(y /x ).log 2 P(y /x ) P(y )...P(x )P(y 2 /x ).log 2 P(y 2 /x ) P(y 2 ) 6 +P(x 2 )P(y /x 2 ).log 2 P(y /x 2 ) P(y ) +P(x 2 )P(y 2 /x 2 ).log 2 P(y 2 /x 2 ) P(y 2 ) +...

Sustituyendo queda: ( α) I(p,α) = p( α).log 2 p( α)+( p)α +( p)α.log α 2 p( α)+( p)α +... α...pα.log 2 pα+( p)( α) +( p)( α).log α 2 pα+( p)( α) (b) Si la potencia del ruido es muy grande, se tiene igual probabilidad de recibir y o y 2 (el ruido hace que lo recibido sea aleatorio e independiente de la entrada). Por lo que en este caso α toma valores cercanos a 2. Si la potencia del ruido es muy pequeña, entonces cuando se envía un símbolo (por ej x ), siempre se recibe el mismo símbolo en la recepción ya sea y o y 2. En este caso α toma un valor cercano a 0 o a. Ejercicio 8 La ley de Hartley-Shannon nos dice que: C = Blog 2 (SN +) donde C es la capacidad del canal, B es el ancho de banda del canal y SN es la relación señal a ruido en la recepción. Si consideramos que la tasa de transferencia de información es igual a la capacidad = C, tenemos que: donde SN = S ηb = S η Despejando S η de : B Llegamos a la expresión graficada: Ejercicio 9 B = log 2(SN +) B = log 2( S η B +) S η = (2 B ) B Si el ancho de banda del mensaje es W y la relación señal a ruido en detección es SN D = 0 6, la tasa de transferencia de información es: = W log 0 (0 6 +) = W.6,00 hartleys/seg Por otro lado, la capacidad del canal esta dada por: C = Blog 0 (SN+) C = 0W log 0 (0 0.5 +) = W 6,9 hartleys/seg El sistema es factible. Podemos decir que cumple con las limitantes conocidas de las predicciones teóricas. 7

Ejercicio 0 (a) La velocidad de transferencia de información es: = 5 bit pixel cuadro 480 500 30 = 36 Mbit pixel cuadro seg seg (b) La capacidad de un canal analógico es: C = Blog 2 (SN +) = 4,5 MHz log 2 (0 3,5 +) = 52,32 Mbit seg Por lo que este ancho de banda sería suficiente para enviar TV blanco y negro con 32 niveles por pixel. (c) Los sistemas de compresión de video digitales utilizan la propiedad del ojo de tener una cpacidad de resolución espacial del color mucho más baja que del nivel del brillo. Así, se manda información de color para bloques de pixeles, por ejemplo de 2x2. En nuestro caso, una forma razonable de enviar imágenes color sería enviar 4 bits/pixel en vez de 5 de información de brillo. Así se gana bit por pixel para el color, por lo que si se elige tomar bloques de 2x2, se dispone de 4 bits para mandar la informacion de color. Esto nos daría una gama 6 colores, que es muy poco, por lo que sería más razonable mandar información de color para cada bloque de 3x3, perdiendo mas resolución espacial en el color, pero disponiendo de 2 9 (52) colores diferentes. 8