Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino."

Transcripción

1

2 Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos en la salida del canal no es necesariamente es la misma que la entrada. Para contrarrestar el efecto negativo inducido por el canal, el mensaje fuente es codificado con ciertos esquemas de codificación de canales. El flujo de datos codificados es entonces enviado a través del canal.

3 EL CANAL Un canal (X, P Y X (y j x i ), Y) es dado por: Un alfabeto de entrada X {x 1,, x s } donde s es el número de letras de entrada Un alfabeto de salida Y {y 1,, y t } donde t denota el número de letras de salida Una distribución de probabilidad condicional P Y X (y j x i ), el cual especifica la probabilidad de observar Y = y j a la salida dado que X = x i es enviado, 1 i s, 1 j t.

4 En este modelo, el canal es completamente descrito por la matriz de probabilidades condicionales, el llamado matriz de transición de canales

5 El matriz de transición de canales tiene las siguientes propiedades: 1. Las entradas en la fila i consisten en las probabilidades de observar letras de salida y 1,, y t, dado que el símbolo de entrada i x i es enviado. 2. Las entradas en la columna j consisten en las probabilidades de observar la letra de salida j y j dada, respectivamente, los símbolos de entrada i x i son enviados, i = 1,, s. 3. La suma de las entradas en una fila es siempre 1, o sea t j=1 P Y X y j x i P x x i = 1 Lo cual significa que para cada entrada x i estamos seguros de que obtendremos algo. 4. Si Px(xi) es la probabilidad del símbolo de entrada xi, entonces s t i=1 j=1 P Y X y j x i P x x i = 1 Lo cual significa que cuando algo se introduce en el sistema, entonces algo saldrá.

6 LAS RELACIONES ENTRE LOS CANALES La probabilidad de que el par de entrada-salida (xi, yj) ocurra simultáneamente es dada por P X,Y (x i, y j ) P Y X (y j x i )P x (x i ) El cual relaciona la probabilidad con al distribución de entrada a través de la probabilidad condicional hacia adelante. Podemos escribir alternativamente que P X,Y (x i, y j ) P Y X (x i y j )P Y (y j ) El cual evalúa la probabilidad conjunta basándose en la distribución de salida y la probabilidad condicional hacia atrás.

7 EL CANAL BINARIO SIMÉTRICO Un simple caso especial de un canal es el canal binario, el cual tiene dos símbolos de entrada, 0 y 1, y dos símbolos de salida, 0 y 1 El canal binario es considerado como simétrico si: P Y X (0 0) = P Y X (1 1), P Y X (0 1) = P Y X (1 0)

8 Las probabilidades de los símbolos de entrada son: Px(0) = δ Px(1) = 1 δ Y las probabilidades del sistema binario simétrico (BSC) son: P Y X (0 0) = P Y X (1 1) = 1 ε P Y X (1 0) = P Y X (0 1) = ε El matriz de canales entonces se convierte en Y las relaciones entre los canales se convierten en P Y (0) = (1 ε)δ + ε(1 δ), P Y (1) = εδ + (1 ε)(1 δ)

9 ENTROPÍAS DEL SISTEMA Ambos la entrada y la salida de un canal no son certeros por naturaleza; no sabemos exactamente cuál símbolo de entrada será seleccionada ni cual letra de salida será vista con certeza al final. La entropía unida de X y Y, definida como s t H X, Y P X Y x i, y j log 2 1 i=1 j=1 P X,Y x i, y j Mide la cantidad total de incertidumbre contenida en la entrada y la salida del canal, por lo tanto de todo el sistema de canales.

10 INFORMACIÓN MUTUA La información mutua del sistema, o información mutua promedio, es definida como s t I X; Y P X,Y x i, y j I x i ; y j i=1 j=1 = s t i=1 j=1 P X,Y x i, y j log 2 ( P X,Y x i, y j P X x i P Y y j ) La información mutua del sistema tiene las siguientes propiedades: 1) I(X; Y) 0; 2) I(X; Y) = 0 solamente si X y Y son independientes 3) I(X; Y) = I(Y; X)

11 DEFINICIÓN DE CAPACIDAD DE CANALES Dadas las probabilidades condicionales P Y X (y i x i ), las cuales definen un canal, se quiere saber cuál es la cantidad máxima de información que queremos enviar a través de un canal. La información mutua conecta a los dos fines del canal. Es definida como I(X; Y) = H(X) H(X Y) Donde la entropía H(X) es la incertidumbre de la entrada del canal antes de la recepción de Y, y H(X Y) es la incertidumbre que queda después de la recepción de Y.

12 Para un canal dado, la capacidad de canal, denotado por C, es definido como la máxima posible información mutua del sistema I(X; Y) de entre todas las posibles distribuciones de entrada P X ( ): C max I(X; Y)

13 CANAL UNIFORMEMENTE DISPERSIVO Los sistemas binarios simétricos pertenecen a la clase de canales uniformemente dispersivos. Se dice que un canal es uniformemente dispersivo si el set A x {P Y X y 1 x,, P Y X (y t x)} Es idéntico para cada símbolo de entrada x.

14 Para un canal uniformemente dispersivo general, la entrada uniforme no necesariamente resulta en la salida uniforme, y la capacidad tampoco puede ser alcanzada necesariamente con la salida uniforme. Considere el canal de borrado binario (BEC). En este canal, el alfabeto de entrada es X={0, 1}, mientras que el alfabeto de salida es Y={0, 1,?}. Con la probabilidad γ, el símbolo de borrado? Es producido a la salida, lo cual significa que el bit de entrada se pierda; de otra manera, el bit de entrada es reproducido a la salida sin error. El parámetro γ por lo tanto es llamado probabilidad de borrado.

15 CARACTERIZACIÓN DE LA DISTRIBUCIÓN DE ENTRADAS Condiciones Karush-Kuhn-Tucker Una distribución de entrada P x ( ) logra la capacidad de canal C solamente si I(x; Y) = C para todos los x con P x (x) > 0 I(x; Y) C para todos los x con P x (x) = 0

16 TEOREMA DE CODIFICACIÓN DE CANALES DE SHANNON La capacidad de canal mide la cantidad de información que puede ser llevada a través del canal. El trabajo de Shannon en 1984 estableció el reconocido Teorema de Codificación de Canales: siempre que el periodo de transmisión en las mismas unidades sea el mismo que la capacidad de canales ( o sea, el uso de bits de información por canal) está por debajo de la capacidad de canal, el error puede ser hecho más pequeño que cualquier número dado por algún esquema de codificación correctamente diseñado

17 Un esquema de codificación (M,n) para el canal (X, P Y X (y x), Y) consiste de lo siguiente: 1) Un conjunto de mensajes {1, 2,, M} 2) Una función de codificación ϕ: {1, 2,, M} X n, el cual es una regla que asocia el mensaje m con una secuencia de entradas del canal con longitud n, llamada la palabra clave m y denotada por x n (m). El set de todas las palabras claves es llamado el libro clave (o simplemente el código) 3) Una función de decodificación ᴪ: Y n {1, 2,.., M}, el cual es una regla determinística que le asigna una estimación a cada vector recibido posible.

18 La frecuencia R de un esquema de codificación (M, n) es definido como R log 2M n bits por transmisión La probabilidad de error promedio λ(n) para un esquema de codificación (M,n) es definido como λ (n) 1 M M λ m m=1

19 TEOREMA DE CODIFICACIÓN DE CANALES DE SHANNON Para un canal de información de tiempo discreto, es posible transmitir mensajes con una probabilidad de error arbitrariamente pequeña si la frecuencia de comunicación R está por debajo de la capacidad de canal C. Específicamente, para cada frecuencia R < C, existe una secuencia de (2 nr, n) esquemas de codificación con la probabilidad de error promedio λ (n) 0 como n. Inversamente, cualquier secuencia de esquemas de codificación (2 nr, n) con λ (n) 0 debe de tener R C. Por lo tanto, cada intento de transmitir a una frecuencia más grande que la capacidad de seguro fallará en el sentido que la probabilidad de error promedio es estrictamente mayor que cero.

Ejercicios sobre probabilidades y entropías

Ejercicios sobre probabilidades y entropías Ejercicios sobre probabilidades y entropías CTI: Lección 1, Primer teorema de Shannon (SCT) Ramiro Moreno Chiral Dpt. Matemàtica (UdL) 10 de febrero de 2010 CTI, lección 1 (Problemas) Ejercicios sobre

Más detalles

TRANSMISIÓN DE DATOS 2005/06. Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique

TRANSMISIÓN DE DATOS 2005/06. Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique Control Intermedio Apellidos, nombre DNI TRANSMISIÓN DE DATOS 2005/06 21 de noviembre de 2005 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique Este

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades

Más detalles

Conceptos básicos de teoría de la información. Luca Mar8no Apuntes no revisados Cuidado!

Conceptos básicos de teoría de la información. Luca Mar8no Apuntes no revisados Cuidado! Conceptos básicos de teoría de la información Luca ar8no Apuntes no revisados Cuidado! Información La información asociada a un evento con probabilidad p(x) se define I(x) = log[ p(x) ] Unidad de medida:

Más detalles

Comunicaciones Digitales

Comunicaciones Digitales Trabajo Práctico Codificación de Fuente Comunicaciones Digitales E.1 Una fuente tiene un alfabeto {a1,a, a3, a4, a5, a6} con sus correspondientes probabilidades {0.1,0.,0.3,0.05,0.15,0.}. Encontrar la

Más detalles

Tema 6. Códigos Lineales

Tema 6. Códigos Lineales Tema 6. Códigos Lineales José A. Montenegro Dpto. Lenguajes y Ciencias de la Computación ETSI Informática. Universidad de Málaga monte@lcc.uma.es 26 de septiembre de 2013 José A Montenegro (monte@lcc.uma.es)

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Conceptos Básicos. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 32 Agenda 1 Definiciones y Propiedades Básicas

Más detalles

Sistemas de comunicación

Sistemas de comunicación Sistemas de comunicación Práctico 6 Teoría de la Información Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil. Además

Más detalles

4.5. PROBLEMAS 323. con probabilidades 0.2, 0.1, 0.15, 0.05, 0.3, 0.2, respectivamente. Calcule la entropía en bits/muestra y en bits/segundo.

4.5. PROBLEMAS 323. con probabilidades 0.2, 0.1, 0.15, 0.05, 0.3, 0.2, respectivamente. Calcule la entropía en bits/muestra y en bits/segundo. 45 PROBLEMAS 323 45 Problemas Problema 41 Una fuente tiene un alfabeto {a 1,a 2,a 3,a 4,a 5,a 6 } con probabilidades {01, 02, 03, 005, 015, 02} Calcule la entropía de la fuente y compare dicha entropía

Más detalles

SISTEMAS DE COMUNICACIONES

SISTEMAS DE COMUNICACIONES Capítulo 3 SISTEMAS DE COMUNICACIONES Un sistema de comunicaciones es un conjunto de dispositivos que son utilizados con la finalidad de transmitir, emitir y recibir señales de todo tipo, como voz, datos,

Más detalles

Teoría de la Información

Teoría de la Información Teoría de la Información - Clase práctica - Teoría de las Comunicaciones Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 12.08.2015 Teoría de las Comunicaciones

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia)

Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia) Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia) 1. Demostrar que en un código binario lineal la distancia mínima es igual a a) el mínimo peso

Más detalles

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de

Más detalles

Examen Final Extraordinario

Examen Final Extraordinario TRANSMISIÓN DE DATOS 2008/09 Examen Final Extraordinario Apellidos, nombre DNI 9 de septiembre de 2009 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Teoría de la Información Estadística p. 1/1

Teoría de la Información Estadística p. 1/1 Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Teoría de la Información

Más detalles

Tema 7: Teoría de la Información Estadística p. 1/16

Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística Abdelamlik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia

Más detalles

Examen Final, Convocatoria Extraordinaria 2 de julio de Modalidad de test A

Examen Final, Convocatoria Extraordinaria 2 de julio de Modalidad de test A E.T.S.I. TELECOMUNICACIÓN UNIVERSIDAD POLITÉCNICA DE VALENCIA TRANSMISIÓN DE DATOS 5 o cuatrimestre, Plan 96 Examen Final, Convocatoria Extraordinaria 2 de julio de 2009 Modalidad de test A Profesores:

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)

Más detalles

Matemáticas Discretas Probabilidad

Matemáticas Discretas Probabilidad Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa

Más detalles

CÓDIGO HAMMING. A continuación se explicará el caso más para la transmisión de palabras de 4 bits.

CÓDIGO HAMMING. A continuación se explicará el caso más para la transmisión de palabras de 4 bits. CÓDIGO HAMMING PROPIEDADES: El código de Hamming sirve es un código de distancia 3. Dicho código, consiste en agregar una cierta cantidad de bits adicionales llamados Bits de Paridad ; la cantidad (K)

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon

Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon Unidad 5: Entropía y Fuente del Teorema de Codificación de Shannon En ésta unidad empezamos a ver la teoría de la información, al cual nos permitirá aprender mas sobre las propiedades fundamentales de

Más detalles

INTRODUCCIÓN. Capítulo OBJETIVO

INTRODUCCIÓN. Capítulo OBJETIVO Capítulo 1 INTRODUCCIÓN La cuantización es un proceso que ha tomado gran importancia en las comunicaciones en general desde el momento en que las comunicaciones analógicas comenzaron a ser desplazadas

Más detalles

Teoría de la Comunicación

Teoría de la Comunicación 56 Ejercicio Ejercicio 51 Una variable aleatoria tiene un alfabeto A X = {,,x 3,x 4,x 5,x 6 } con probabilidade p X ( )=0,1, p X ( )=0,2, p X (x 3 )=0,3, p X (x 4 )=0,05, p X (x 5 )=0,15, p X (x 6 )=0,2

Más detalles

Si u y v son vectores cualquiera en W, entonces u + v esta en W. Si c es cualquier numero real y u es cualquier vector en W, entonces cu esta en W.

Si u y v son vectores cualquiera en W, entonces u + v esta en W. Si c es cualquier numero real y u es cualquier vector en W, entonces cu esta en W. Unidad 4 Espacios vectoriales reales 4.1 Subespacios Si V es un espacio vectorial y W un subconjunto no vacío de V. Entonces W es un subespacio de V si se cumplen las siguientes condiciones Si u y v son

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

CC40A Complejidad de Kolmogorov

CC40A Complejidad de Kolmogorov CC40A Complejidad de Kolmogorov Ricardo Baeza Yates, Rodrigo Paredes Dept. de Ciencias de la Computación, Universidad de Chile. 1. Definiciones Básicas La Complejidad de Kolmogorov (CK) de un string s

Más detalles

Comunicaciones Digitales - Ejercicios Tema 6

Comunicaciones Digitales - Ejercicios Tema 6 Comunicaciones Digitales - Ejercicios Tema 6 1. La matriz generadora de un código bloque lineal C(4,8) es la que se presenta a continuación. Calcule la tasa del código, la distancia mínima y la tabla de

Más detalles

Teoría de la Información Estadística

Teoría de la Información Estadística Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco MMCC 2005-2006

Más detalles

Práctica 5. Códigos Huffman y Run-Length

Práctica 5. Códigos Huffman y Run-Length EC2422. Comunicaciones I Enero - Marzo 2009 Práctica 5. Códigos Huffman y Run-Length 1. Objetivos 1.1. Simular, usando MATLAB, un codificador y decodificador Huffman a fin de estudiar sus características

Más detalles

Práctica 5 Martingalas a tiempo discreto

Práctica 5 Martingalas a tiempo discreto Práctica 5 Martingalas a tiempo discreto 1. Tiempos de Parada A lo largo de esta sección vamos a fijar un espacio de probabilidad (Ω, F, P ) junto con una filtración (F n ) n N definida en este espacio.

Más detalles

Unidad 3. Probabilidad

Unidad 3. Probabilidad Unidad 3. Probabilidad Javier Santibáñez 17 de agosto de 2018 1. Introducción Definición 1. La probabilidad es una medida subjetiva del grado de creencia que se tiene acerca de que algo desconocido sea

Más detalles

Estructuras Algebraicas

Estructuras Algebraicas Tema 1 Estructuras Algebraicas Definición 1 Sea A un conjunto no vacío Una operación binaria (u operación interna) en A es una aplicación : A A A Es decir, tenemos una regla que a cada par de elementos

Más detalles

Universidad Nacional del Nordeste. Facultad de Ciencias Exactas y Naturales y Agrimensura. Cátedra: Comunicaciones de Datos.

Universidad Nacional del Nordeste. Facultad de Ciencias Exactas y Naturales y Agrimensura. Cátedra: Comunicaciones de Datos. Universidad Nacional del Nordeste Facultad de Ciencias Exactas y Naturales y Agrimensura Cátedra: Comunicaciones de Datos Año: 207 Trabajos Prácticos Series,2,3 y 4 Series Prácticas Comunicaciones de Datos

Más detalles

Teoría de la Información

Teoría de la Información Teoría de la Información Extractado de "Introducción a la psicología de la comunicación" Alejandro López, Andrea Parada, Franco Simonetti, Ediciones Universidad Católica de Chile, Santiago, 1995. A partir

Más detalles

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Capacidad del canal Facultad de Ingeniería, UdelaR 6 de mayo de 2017 (Facultad de Ingeniería, UdelaR) Teoría de la Información 6 de mayo de 2017 1 / 75 Codificación

Más detalles

Codificación de Canal

Codificación de Canal Codificación de Canal Mónica Aguilar Igartua Índice Resumen fundamentos de codificación de canal Códigos bloque Código Lineal. Matrices generadora y de comprobación. Distancia mínima de un código. Redundancia

Más detalles

Introducción a la Criptografía Cuántica

Introducción a la Criptografía Cuántica Introducción a la Criptografía Cuántica Alfonsa García, Francisco García 1 y Jesús García 1 1 Grupo de investigación en Información y Computación Cuántica (GIICC) Introducción a la criptografía cuántica

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Ejemplos de ejercicios de la prueba final Problema 1 Considerar un par de canales gaussianos paralelos de forma que: ( ) ( ) ( ) Y1 X1 Z1 = + donde Y 2 ( Z1 Z

Más detalles

Introducción a los códigos compresores

Introducción a los códigos compresores Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción

Más detalles

Máquina de estado finito con salida sin salida

Máquina de estado finito con salida sin salida Máquina de estado finito con salida sin salida Máquina de estado finito Máquinas de estados finitos se utilizan ampliamente en aplicaciones en ciencias de la computación y redes de datos. Por ejemplo,

Más detalles

EL4005 Principios de Comunicaciones Clase No.22: Señalización Ortogonal

EL4005 Principios de Comunicaciones Clase No.22: Señalización Ortogonal EL4005 Principios de Comunicaciones Clase No.22: Señalización Ortogonal Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 29 de Octubre de 2010 1 of 34 Contenidos de la Clase (1)

Más detalles

Transmisión. Transmision de Datos

Transmisión. Transmision de Datos Transmisión Transmision de Datos 1 El éxito en la transmisión depende fundamentalmente de dos factores La calidad de la señal Las características del medio de transmisión 2 Medio de Transmisión No guiado

Más detalles

Señales y Sistemas. Señales y Clasificación Sistemas y Clasificación Respuesta al impulso de los sistemas. 5º Curso-Tratamiento Digital de Señal

Señales y Sistemas. Señales y Clasificación Sistemas y Clasificación Respuesta al impulso de los sistemas. 5º Curso-Tratamiento Digital de Señal Señales y Sistemas Señales y Clasificación Sistemas y Clasificación Respuesta al impulso de los sistemas Señales El procesamiento de señales es el objeto de la asignatura, así que no vendría mal comentar

Más detalles

TEMA 5 TÉCNICAS DE PROTECCIÓN FRENTE A ERRORES (CÓDIGOS CONVOLUCIONALES) Códigos convolucionales. Introducción de la redundancia mediante filtrado

TEMA 5 TÉCNICAS DE PROTECCIÓN FRENTE A ERRORES (CÓDIGOS CONVOLUCIONALES) Códigos convolucionales. Introducción de la redundancia mediante filtrado TEMA 5 TÉCNICAS DE PROTECCIÓN FRENTE A ERRORES (CÓDIGOS CONVOLUCIONALES) MMC (UC3M) Comunicaciones Digitales Codificación de Canal / 7 Códigos convolucionales Introducción de la redundancia mediante filtrado

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Codificación de fuentes Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 43 Agenda 1 Codificación de fuente Definiciones

Más detalles

EL4005 Principios de Comunicaciones Clase No.30: Códigos Lineales de Bloque

EL4005 Principios de Comunicaciones Clase No.30: Códigos Lineales de Bloque EL4005 Principios de Comunicaciones Clase No.30: Códigos Lineales de Bloque Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 26 de Noviembre de 2010 1 of 33 Contenidos de la Clase

Más detalles

Cadenas de Markov. José Antonio Camarena Ibarrola

Cadenas de Markov. José Antonio Camarena Ibarrola Cadenas de Markov José Antonio Camarena Ibarrola Definiciones elementales El proceso discreto cadena de Markov si se cumple es denominado es la probabilidad de que en el tiempo k, el proceso esté en el

Más detalles

Definición: Dos matrices A y B son iguales si tienen el mismo orden y coinciden los elementos que ocupan el mismo lugar.

Definición: Dos matrices A y B son iguales si tienen el mismo orden y coinciden los elementos que ocupan el mismo lugar. UNIDAD 03: MATRICES Y DETERMINANTES. 3.1 Conceptos de Matrices. 3.1.1 Definición de matriz. Definición: Se lama matriz de orden m x n a un arreglo rectangular de números dispuestos en m renglones y n columnas.

Más detalles

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR

Optimización bajo Incertidumbre. 0. Revisión. Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR Optimización bajo Incertidumbre 0. Revisión Carlos Testuri Germán Ferrari Depto. Investigación Operativa. Instituto de Computación. Facultad de Ingeniería, UdelaR 2003-17 Contenido 1 Revisión Probabilidad

Más detalles

Tema 5. Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017

Tema 5. Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017 Profa. Gabriela Leija Hernández Tema 5 Modulación por Código de Pulso (PCM) Materia: Comunicaciones Digitales Semestre: 6to. Carrera: ICE Febrero-Julio 2017 ESIME Unidad Zacatenco DEFINICIÓN DE PCM La

Más detalles

PCM MODULACION ANALOGA CON PORTADORA DIGITAL

PCM MODULACION ANALOGA CON PORTADORA DIGITAL PCM MODULACION ANALOGA CON PORTADORA DIGITAL o Es la representación de la información analógica en una señal digital o Al proceso de conversión de señales análoga en digitales se le denomina digitalización

Más detalles

Comunicación de datos

Comunicación de datos Comunicación de datos Primero se aplica una XOR al par de bits menos significativos; a continuación se aplica otra XOR a la salida de la operación anterior y al siguiente bit (más significativo), y así

Más detalles

Unidad Temática 3: Probabilidad y Variables Aleatorias

Unidad Temática 3: Probabilidad y Variables Aleatorias Unidad Temática 3: Probabilidad y Variables Aleatorias 1) Qué entiende por probabilidad? Cómo lo relaciona con los Sistemas de Comunicaciones? Probabilidad - Definiciones Experimento aleatorio: Un experimento

Más detalles

Sistemas de ecuaciones lineales

Sistemas de ecuaciones lineales Tema 1 Sistemas de ecuaciones lineales 11 Definiciones Sea K un cuerpo Una ECUACIÓN LINEAL CON COEFICIENTES EN K es una expresión del tipo a 1 x 1 + + a n x n = b, en la que n es un número natural y a

Más detalles

MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo)

MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo) .Definición : MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo) H es una matriz de chequeo de un código C si C = Nu(H) = {x : Hx t = 0} 2.Teorema : [I A] es una matriz de chequeo de un codigo C si

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

Compresión. UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides

Compresión. UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides UCR ECCI CI-2414 Recuperación de Información Prof. M.Sc. Kryscia Daviana Ramírez Benavides Introducción Grandes cantidades de información textual en la Internet. Se desea representar esta información con

Más detalles

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( )

Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. ) ( + ( ) ( ) MATRICES Una matriz es un arreglo rectangular de números. Los números en el arreglo se llaman elementos de la matriz. Ejemplo 1. Algunos ejemplos de matrices ( + ( ) ( + ( ) El tamaño o el orden de una

Más detalles

Máquinas de estado finito y expresiones regulares

Máquinas de estado finito y expresiones regulares Capítulo 3 Máquinas de estado finito y expresiones regulares En este tema definiremos y estudiaremos máquinas de estado finito, llamadas también máquinas de estado finito secuenciales o autómatas finitos.

Más detalles

Optimización lineal. Diego A. Patino. 2 de septiembre de Pontificia Universidad Javeriana 1/ 29

Optimización lineal. Diego A. Patino. 2 de septiembre de Pontificia Universidad Javeriana 1/ 29 Optimización lineal Diego A. Patino Pontificia Universidad Javeriana 2 de septiembre de 2016 1/ 29 Introducción Formulación del problema Herramientes del análisis convexo Formas de las restricciones 2/

Más detalles

CÓDIGOS DE PARIDAD DE BAJA DENSIDAD (LOW-DENSITY PARITY-CHECK CODES, LDPC)

CÓDIGOS DE PARIDAD DE BAJA DENSIDAD (LOW-DENSITY PARITY-CHECK CODES, LDPC) PROYECTO DE GRADO CÓDIGOS DE PARIDAD DE BAJA DENSIDAD (LOW-DENSITY PARITY-CHECK CODES, LDPC) Alix Lhéritier Tutor: Dr. Alfredo Viola Instituto de Computación Facultad de Ingeniería Universidad de la República

Más detalles

CÁLCULO II Grados en Ingeniería

CÁLCULO II Grados en Ingeniería CÁLCULO II Grados en Ingeniería Domingo Pestana Galván José Manuel Rodríguez García Figuras realizadas con Arturo de Pablo Martínez Capítulo 1. Cálculo diferencial 1.1 Funciones. Límites y continuidad

Más detalles

Espacios vectoriales reales.

Espacios vectoriales reales. Tema 3 Espacios vectoriales reales. 3.1 Espacios vectoriales. Definición 3.1 Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con dos operaciones, una que recibe el nombre

Más detalles

Análisis y Diseño de Algoritmos

Análisis y Diseño de Algoritmos Análisis y Diseño de Algoritmos Teoría NP-Completeness DR. JESÚS A. GONZÁLEZ BERNAL CIENCIAS COMPUTACIONALES INAOE Problemas de Decisión Teoría de NP-Completeness Diseñada para aplicarse solo a problemas

Más detalles

COMUNICACIONES DIGITALES. El CONTROL DE ERROR

COMUNICACIONES DIGITALES. El CONTROL DE ERROR El CONTROL DE ERROR El proceso de control de error es de gran importancia en la transmisión de datos pues debido a la baja redundancia de la información digital, un grupo de dígitos que representan símbolos

Más detalles

Tema 4. Teoría de códigos Introducción. Álgebra. Área de Álgebra Universidade da Coruña

Tema 4. Teoría de códigos Introducción. Álgebra. Área de Álgebra Universidade da Coruña Tema 4 Teoría de códigos 4.1. Introducción Los inicios de la teoría moderna de la comunicación, en la que se incluye la teoría de códigos, se sitúan al final de los años veinte con los trabajos de Ralph

Más detalles

Cálculo Numérico III Curso 2010/11

Cálculo Numérico III Curso 2010/11 Cálculo Numérico III Curso 2010/11 Problemas del Tema 1 1. Sean {x 0, x 1,..., x n } IR con x i x j si i j. Hoja de problemas - Parte I a) Hallar el polinomio de grado n que interpola a la función en los

Más detalles

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19

Optimización. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Optimización Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Optimización 1 / 19 Introducción Problema general de optimización (minimización) Dado f : Ω R

Más detalles

Tema 2. Códigos sin prefijos

Tema 2. Códigos sin prefijos Tema 2. Códigos sin prefijos José A. Montenegro Dpto. Lenguajes y Ciencias de la Computación ETSI Informática. Universidad de Málaga monte@lcc.uma.es 26 de septiembre de 2013 José A Montenegro (monte@lcc.uma.es)

Más detalles

EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES

EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES DIEGO ERNESTO HERNÁNDEZ JIMÉNEZ Diego Ernesto Hernández Jiménez UNIVERSIDAD

Más detalles

Lección 14: Compromiso entre Modulación y Codificación. Parte I

Lección 14: Compromiso entre Modulación y Codificación. Parte I Lección 14: Compromiso entre Modulación y Codificación. Parte I Gianluca Cornetta, Ph.D. Dep. de Ingeniería de Sistemas de Información y Telecomunicación Universidad San Pablo-CEU Contenido Los Objetivos

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas Banda Ancha Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos MSc. Luis Rojas INTRODUCCIÓN Para el almacenamiento y transmisión eficiente de señales de voz, video y texto

Más detalles

Sobre Codificación Conjunta Fuente-Canal

Sobre Codificación Conjunta Fuente-Canal UNIVERSIDAD CARLOS III DE MADRID ESCUELA POLITECNICA SUPERIOR MASTER EN MULTIMEDIA Y COMUNICACIONES Sobre Codificación Conjunta Fuente-Canal Luca Martino FEBRERO DE 2008 FEBRERO DE 2008 1 Introducción:

Más detalles

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores Compresión de Vídeo Tema.5. Codificación entrópica Juan A. Michell Mar>n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons BY- NC- SA

Más detalles

ALGORITMOS GENÉTICOS. En lugar de envidiar la naturaleza debemos emularla Holland

ALGORITMOS GENÉTICOS. En lugar de envidiar la naturaleza debemos emularla Holland ALGORITMOS GENÉTICOS En lugar de envidiar la naturaleza debemos emularla Holland Algoritmos genéticos Algoritmos basados en los principios de la evolución natural Se utilizan en problemas donde no se pueden

Más detalles

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias.

Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Teorema de Existencia y Unicidad Ecuaciones Diferenciales Ordinarias. Dr. Rafael Morones E. Dept. de Matemáticas ITAM August 5, 2002 1 Contenido 1 Preliminares. 3 1.1 Sucesiones...............................

Más detalles

Aplicaciones Lineales (Curso )

Aplicaciones Lineales (Curso ) ÁLGEBRA Práctica 6 Aplicaciones Lineales (Curso 2008 2009) 1. De las siguientes aplicaciones definidas entre espacios vectoriales reales determinar cuáles son homomorfismos monomorfismos epimorfismos o

Más detalles

Tratamiento de imágenes Relaciones básicas entre píxeles

Tratamiento de imágenes Relaciones básicas entre píxeles Tratamiento de imágenes Relaciones básicas entre píxeles Héctor Alejandro Montes hamontesv@uaemex.mx http://scfi.uaemex.mx/hamontes Advertencia No use estas diapositivas como referencia única de estudio

Más detalles

Métodos directos para resolver sistemas de ecuaciones lineales

Métodos directos para resolver sistemas de ecuaciones lineales Métodos directos para resolver sistemas de ecuaciones lineales Problemas para examen Si en algún problema se pide calcular el número de flops (operaciones aritméticas con punto flotante), entonces en el

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 4. a) Hallar las funciones de probabilidad marginal de X ydey : p X (x) y p Y (y) respectivamente.

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 4. a) Hallar las funciones de probabilidad marginal de X ydey : p X (x) y p Y (y) respectivamente. PROBABILIDADES Y ESTADÍSTICA (C) Práctica 4 1. En la siguiente tabla se presenta la función de probabilidad conjunta del vector aleatorio discreto (X, Y ): Y \ X 1 2 3 4 1 0.10 0.05 0.02 0.02 2 0.05 0.20

Más detalles

Modelos de Computación. Guía Modelos de Computación. Tema VI: Maquinas De Estado Finito Con Salida

Modelos de Computación. Guía Modelos de Computación. Tema VI: Maquinas De Estado Finito Con Salida Guía Modelos de Computación Tema VI: Maquinas De Estado Finito Con Salida Definición: Una maquina de estado finito M = (S, I, O, f, g, s0) consiste en un conjunto finito de estados S; un alfabeto de entradas

Más detalles

Matrices. Observación: Es usual designar una matriz por letras mayúsculas: A, B, C,... 3 B =

Matrices. Observación: Es usual designar una matriz por letras mayúsculas: A, B, C,... 3 B = Definición: A una ordenación o arreglo rectangular de ciertos objetos se define como matriz (en este curso nos interesa que los objetos de la matriz sean numeros reales. Observación: Es usual designar

Más detalles

Álgebra Lineal IV: Espacios Vectoriales.

Álgebra Lineal IV: Espacios Vectoriales. Álgebra Lineal IV: Espacios Vectoriales José María Rico Martínez Departamento de Ingeniería Mecánica Facultad de Ingeniería Mecánica Eléctrica y Electrónica Universidad de Guanajuato email: jrico@salamancaugtomx

Más detalles

1. Información y Entropía de Shannon

1. Información y Entropía de Shannon Información y Entropía de Shannon Pablo Lessa 10 de octubre de 2014 1. Información y Entropía de Shannon Claude Shannon (1916 a 2001) era un tipo muy interesante. Por ejemplo, hizo construir una maquina

Más detalles

Aplicaciones Lineales (Curso )

Aplicaciones Lineales (Curso ) ÁLGEBRA Práctica 6 Aplicaciones Lineales (Curso 2009 2010) 1. De las siguientes aplicaciones definidas entre espacios vectoriales reales determinar cuáles son homomorfismos monomorfismos epimorfismos o

Más detalles

Teoría de la Información y Codificación

Teoría de la Información y Codificación SEGUNDA EDICIÓN Construcción de sistemas y servicios VoIP Yolanda Blanco Fernández Martín López Nores Dispositivos y circuitos eléctricos analógicos Alfonso Lago Ferreiro Andrés A. Nogueiras Meléndez Problemas

Más detalles

Definiciones previas

Definiciones previas Máquina de Turing Definiciones previas Definición. Alfabeto: Diremos que un conjunto finito Σ es un alfabeto si Σ y ( x)(x Σ x es un símbolo indivisible) Ejemplos Σ ={a,b}, Σ ={0,1}, Σ ={a,b, z} son alfabetos

Más detalles

Curso Básico de Computación

Curso Básico de Computación Curso Básico de Computación Autómatas finitos y expresiones regulares Feliú Sagols Troncoso Matemáticas CINVESTAV-IPN 2010 Curso Básico de Computación (Matemáticas) Autómatas

Más detalles

Capítulo 2: Código detector de errores. Materia: Teoría de la información y métodos de codificación.

Capítulo 2: Código detector de errores. Materia: Teoría de la información y métodos de codificación. Capítulo 2: Código detector de errores. Materia: Teoría de la información y métodos de codificación. Introducción Cuando un mensaje es transmitido es inevitable el ruido que degrada la calidad de la comunicación.

Más detalles

Ataque de texto claro escogido contra la clave de protocolo del cifrado de Doble Criptograma Simétrico

Ataque de texto claro escogido contra la clave de protocolo del cifrado de Doble Criptograma Simétrico Ataque de texto claro escogido contra la clave de protocolo del cifrado de Doble Criptograma Simétrico Manuel J. Lucena López 27 de enero de 2013 Resumen Se presenta un ataque de texto claro escogido para

Más detalles

Procesamiento de la Señal

Procesamiento de la Señal Filtrado I: Ruido 8 de abril de 2013 Repaso: Teoría de la Información La teoría de la información tiene por objeto la determinación de la manera más eciente de codicar un mensaje para su correcta entrega

Más detalles

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo.

1. (F, +) es un grupo abeliano, denominado el grupo aditivo del campo. Capítulo 5 Campos finitos 5.1. Introducción Presentaremos algunos conceptos básicos de la teoría de los campos finitos. Para mayor información, consultar el texto de McEliece [61] o el de Lidl y Niederreiter

Más detalles

https://dac.escet.urjc.es/docencia/etc-sistemas/teoria-cuat1/tema2.pdf

https://dac.escet.urjc.es/docencia/etc-sistemas/teoria-cuat1/tema2.pdf 1.3 Sistemas numéricos 1.3.1. Introducción Un sistema de representación numérica es un lenguaje que consiste en: Un conjunto ordenado de símbolos (dígitos o cifras) y otro de reglas bien definidas para

Más detalles

A veces queremos almacenar algún elemento que es Verdadero o Falso. Este tipo de dato se llama Booleano y su representación es sencilla, para cada

A veces queremos almacenar algún elemento que es Verdadero o Falso. Este tipo de dato se llama Booleano y su representación es sencilla, para cada Hemos visto que los ordenadores modernos son máquinas digitales que sólo funcionan con datos binarios. Así que necesitamos una representación binaria de cada dato que queremos usar en un ordenador. El

Más detalles