Ejercicios sobre probabilidades y entropías

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Ejercicios sobre probabilidades y entropías"

Transcripción

1 Ejercicios sobre probabilidades y entropías CTI: Lección 1, Primer teorema de Shannon (SCT) Ramiro Moreno Chiral Dpt. Matemàtica (UdL) 10 de febrero de 2010 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

2 Índice CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

3 Índice CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

4 (I) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

5 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

6 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario (CSB) con probabilidad de error en un bit igual a 0 2. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

7 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario (CSB) con probabilidad de error en un bit igual a 0 2. E BSC R P(X=1)= p 0 P(Y=1) P(Y=0) p p 1 1 p 1 p=0 2 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

8 (II) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

9 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

10 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

11 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

12 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

13 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Índice 1 2 Matriz de transición Probabilidad conjunta Probabilidades condicionadas 3 4 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

14 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

15 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

16 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

17 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

18 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. Se trata de una matriz estocástica: sus filas son distribuciones de probabilidad. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

19 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. Se trata de una matriz estocástica: sus filas son distribuciones de probabilidad. En nuestro caso, ( ) ( 1 p p 0 T Y X = = 8 0 ) 2 p 1 p CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

20 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

21 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

22 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

23 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). Y una propiedad de las matrices estocásticas es que al multiplicarlas por una distribución de probabilidad se obtiene otra distribución de probabilidad. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

24 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). Y una propiedad de las matrices estocásticas es que al multiplicarlas por una distribución de probabilidad se obtiene otra distribución de probabilidad. En nuestro caso, P(X) T Y X = (0 7, 0 3) ( ) = (0 62, 0 38) = P(Y ). 8 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

25 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

26 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

27 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

28 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

29 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) = (P(X = 0, Y = 0) + P(X = 1, Y = 0), P(X = 0, Y = 1) + P(X = 1, Y = 1)) }{{} Regla del producto CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

30 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) = (P(X = 0, Y = 0) + P(X = 1, Y = 0), P(X = 0, Y = 1) + P(X = 1, Y = 1)) }{{} Regla del producto = (P(Y = 0), P(Y = 1)). }{{} Regla de la suma CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

31 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

32 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

33 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

34 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 ( ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

35 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 Y, para combrobar, la tabla completa, ( ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

36 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 Y, para combrobar, la tabla completa, ( ) P XY Y = 0 Y = 1 Marginal de X X = X = Marginal de Y CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

37 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

38 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

39 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

40 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

41 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

42 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), P(Y = 0) P(Y = 1) ( ) P(X = 0, Y = 0) P(X = 0, Y = 1), P(X = 1, Y = 0) P(X = 1, Y = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

43 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), P(Y = 0) P(Y = 1) ( ) P(X = 0, Y = 0) P(X = 0, Y = 1), P(X = 1, Y = 0) P(X = 1, Y = 1) ( 0 P X Y = 56/ /0 ) ( / /0 = 90 0 ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

44 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Índice Entropías binarias Entropía conjunta Entropías condicionales Información mutua 4 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

45 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

46 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

47 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, h(p) = p log p (1 p) log(1 p). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

48 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

49 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). H(X) = h(0 3) = 0 88 bits, H(Y ) = h(0 38) = 0 95 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

50 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). H(X) = h(0 3) = 0 88 bits, H(Y ) = h(0 38) = 0 95 bits. h p 1 Entropía binaria, h p p CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

51 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

52 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

53 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

54 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, H(p 1,..., p n ) = n p k log p k. k=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

55 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, Y tendremos, H(p 1,..., p n ) = n p k log p k. k=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

56 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, Y tendremos, H(p 1,..., p n ) = n p k log p k. k=1 H(X, Y ) = H(0 56, 0 06, 0 14, 0 24) = 1 60 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

57 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

58 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

59 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

60 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = n P(X = i, Y = j) log P(Y = j X = i). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

61 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

62 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 H(Y X) = (0 56 log log log log 0 8) = 0 72 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

63 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 H(Y X) = (0 56 log log log log 0 8) = 0 72 bits. Similarmente, H(X Y ) = (0 56 log log log log 0 63) = 0 65 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

64 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

65 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

66 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

67 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = Y tendremos, n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

68 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = Y tendremos, n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 I(X; Y ) = 0 56 log log log log = 0 24 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

69 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

70 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

71 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

72 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 explica las relaciones fundamentales entre las entropías y la información mutua, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

73 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 explica las relaciones fundamentales entre las entropías y la información mutua, I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X), H(X, Y ) = H(X Y ) + I(X; Y ) + H(Y X). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

74 Canal simétrico binario con borrón, BEC Índice Canal simétrico binario con borrón, BEC CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

75 Canal simétrico binario con borrón, BEC BEC (I) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

76 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

77 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario con borrón o borrado (BEC) con probabilidad de error en un bit igual a 0 15 y de borrón de CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

78 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario con borrón o borrado (BEC) con probabilidad de error en un bit igual a 0 15 y de borrón de E BEC R P(X=1)= p q 0 P(Y=1) P(Y=0) p p q q * 1 1 p q 1 p=0 15 CTI, lección 1 (Problemas) q=0 05 Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

79 Canal simétrico binario con borrón, BEC BEC (II) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

80 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

81 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

82 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

83 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. Explicad las relaciones entre las entropías y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

84 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. Explicad las relaciones entre las entropías y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.

Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos

Más detalles

Introducción a los códigos compresores

Introducción a los códigos compresores Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)

Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos

Más detalles

Conceptos básicos de teoría de la información. Luca Mar8no Apuntes no revisados Cuidado!

Conceptos básicos de teoría de la información. Luca Mar8no Apuntes no revisados Cuidado! Conceptos básicos de teoría de la información Luca ar8no Apuntes no revisados Cuidado! Información La información asociada a un evento con probabilidad p(x) se define I(x) = log[ p(x) ] Unidad de medida:

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Conceptos Básicos. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 32 Agenda 1 Definiciones y Propiedades Básicas

Más detalles

Teoría de la Información Estadística p. 1/1

Teoría de la Información Estadística p. 1/1 Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Teoría de la Información

Más detalles

Tema 7: Teoría de la Información Estadística p. 1/16

Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística Abdelamlik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia

Más detalles

Teoría de la Información Estadística

Teoría de la Información Estadística Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco MMCC 2005-2006

Más detalles

4.5. PROBLEMAS 323. con probabilidades 0.2, 0.1, 0.15, 0.05, 0.3, 0.2, respectivamente. Calcule la entropía en bits/muestra y en bits/segundo.

4.5. PROBLEMAS 323. con probabilidades 0.2, 0.1, 0.15, 0.05, 0.3, 0.2, respectivamente. Calcule la entropía en bits/muestra y en bits/segundo. 45 PROBLEMAS 323 45 Problemas Problema 41 Una fuente tiene un alfabeto {a 1,a 2,a 3,a 4,a 5,a 6 } con probabilidades {01, 02, 03, 005, 015, 02} Calcule la entropía de la fuente y compare dicha entropía

Más detalles

Maribel Martínez y Ginés Ciudad-Real Fichas para mejorar la atención MATRIZ DE LETRAS

Maribel Martínez y Ginés Ciudad-Real Fichas para mejorar la atención MATRIZ DE LETRAS MATRIZ DE LETRAS p q d b p p b n g b n w n w n n w b p q d b p q d n w n g b n p q p q p q d b p n g n g n g b n w n d b d b b p q d b b n b n n w n g b n p q p q p q d b p n g n g n g b n w n d b d b

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)

Más detalles

Examen Final, Convocatoria Extraordinaria 2 de julio de Modalidad de test A

Examen Final, Convocatoria Extraordinaria 2 de julio de Modalidad de test A E.T.S.I. TELECOMUNICACIÓN UNIVERSIDAD POLITÉCNICA DE VALENCIA TRANSMISIÓN DE DATOS 5 o cuatrimestre, Plan 96 Examen Final, Convocatoria Extraordinaria 2 de julio de 2009 Modalidad de test A Profesores:

Más detalles

Teoría de la Comunicación

Teoría de la Comunicación 56 Ejercicio Ejercicio 51 Una variable aleatoria tiene un alfabeto A X = {,,x 3,x 4,x 5,x 6 } con probabilidade p X ( )=0,1, p X ( )=0,2, p X (x 3 )=0,3, p X (x 4 )=0,05, p X (x 5 )=0,15, p X (x 6 )=0,2

Más detalles

Sistemas de comunicación

Sistemas de comunicación Sistemas de comunicación Práctico 6 Teoría de la Información Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil. Además

Más detalles

SISTEMAS DE COMUNICACIONES

SISTEMAS DE COMUNICACIONES Capítulo 3 SISTEMAS DE COMUNICACIONES Un sistema de comunicaciones es un conjunto de dispositivos que son utilizados con la finalidad de transmitir, emitir y recibir señales de todo tipo, como voz, datos,

Más detalles

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información

EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de

Más detalles

2 de mar de 2004 Codificación de imágenes y v ideo

2 de mar de 2004 Codificación de imágenes y v ideo Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N

Más detalles

Sistemas de Comunicación Segundo Parcial

Sistemas de Comunicación Segundo Parcial Sistemas de Comunicación Segundo Parcial Instituto de Ingeniería Eléctrica 7 de julio de 2017 Indicaciones: La prueba tiene una duración total de 3 horas y 30 minutos. Cada hoja entregada debe indicar

Más detalles

Matrices y determinantes

Matrices y determinantes Matrices y determinantes 1 Matrices Una matriz de orden m n es un conjunto de m n números ordenados en m filas y n columnas Por ejemplo, 1 1 2 0 2 0 2 1 1 1 2 1 3 0 2 es una matriz de orden 3 5 Una matriz

Más detalles

Clase 8 Matrices Álgebra Lineal

Clase 8 Matrices Álgebra Lineal Clase 8 Matrices Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia Matrices Definición Una matriz es un arreglo rectangular de números denominados entradas

Más detalles

Text Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina)

Text Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina) Text Mining Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina) http://www.cs.famaf.unc.edu.ar/~laura SADIO 9 de Abril de 2010 contenidos unidades mínimas de significado contenidos unidades

Más detalles

Fuentes de información

Fuentes de información TEORÍA DE LA INFORMACIÓN Tratamiento probabilístico de la Información Fuentes de información INGENIERÍA DE SISTEMAS 07 TRANSMISIÓN DE INFORMACIÓN decodificación automática capacidad del canal Claude Shannon

Más detalles

TEMA 3.- VECTORES ALEATORIOS.- CURSO

TEMA 3.- VECTORES ALEATORIOS.- CURSO TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.

Más detalles

Introducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011

Introducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011 Introducción a la Teoría de la Información Tomás V. Arredondo 8/4/20 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información

Más detalles

Introducción a la Teoría de la Información

Introducción a la Teoría de la Información Introducción a la Teoría de la Información Ejemplos de ejercicios de la prueba final Problema 1 Considerar un par de canales gaussianos paralelos de forma que: ( ) ( ) ( ) Y1 X1 Z1 = + donde Y 2 ( Z1 Z

Más detalles

ALGUNAS APLICACIONES DE LAS DESIGUALDADES NO-SHANNON A LA TEORÍA DE GRUPOS. Daniel Felipe Castro Ovalle. Matemático

ALGUNAS APLICACIONES DE LAS DESIGUALDADES NO-SHANNON A LA TEORÍA DE GRUPOS. Daniel Felipe Castro Ovalle. Matemático ALGUNAS APLICACIONES DE LAS DESIGUALDADES NO-SHANNON A LA TEORÍA DE GRUPOS. Daniel Felipe Castro Ovalle. Matemático Universidad Nacional de Colombia Facultad de Ciencias Departamento de Matemáticas Bogotá,

Más detalles

Elementos de una matriz.

Elementos de una matriz. Matrices. Elementos de una matriz. Renglón. Columnas. A=[a ij ] A-Nombre de la matriz. a-número. i-renglón. j-columna. i j-orden de la matriz. Ejercicio. Indica el orden de la matriz. Indica el valor de

Más detalles

Matemáticas Empresariales II. Formas cuadráticas

Matemáticas Empresariales II. Formas cuadráticas Matemáticas Empresariales II Lección 7 Formas cuadráticas Manuel León Navarro Colegio Universitario Cardenal Cisneros M. León Matemáticas Empresariales II 1 / 17 Definición de Formas cuadráticas Sea V

Más detalles

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades

EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase

Más detalles

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA 508 515 SEMANA: PROPÓSITO Esta asignatura ofrece al alumno los conocimientos básicos para analizar sistemas estocásticos que se encuentran descritos mediante variables aleatorias proporcionándole las herramientas

Más detalles

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov

Cálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de

Más detalles

Algebra de Matrices 1

Algebra de Matrices 1 Algebra de Matrices Definición Una matriz es un arreglo rectangular de valores llamados elementos, organizados por filas y columnas. Ejemplo: Notas: A 6. Las matrices son denotadas con letras mayúsculas..

Más detalles

Práctica 1: Sistemas de Ecuaciones Lineales - Matrices

Práctica 1: Sistemas de Ecuaciones Lineales - Matrices ALGEBRA LINEAL Primer Cuatrimestre 2017 Práctica 1: Sistemas de Ecuaciones Lineales - Matrices En todas las prácticas, K es un cuerpo; en general K = Q (los números racionales, R (los números reales o

Más detalles

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47

Introducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47 Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor

Más detalles

MATLAB y la teoría de la información

MATLAB y la teoría de la información MATLAB y la teoría de la información Tomás Robles Valladares Borja Bordel Sánchez Ramón Alcarria Garrido Diego Martín de Andrés MATLAB aplicado a la ingeniería telemática Departamento de Ingeniería de

Más detalles

Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia)

Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia) Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia) 1. Demostrar que en un código binario lineal la distancia mínima es igual a a) el mínimo peso

Más detalles

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES

CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque

Más detalles

Teoría de la Información y Codificación

Teoría de la Información y Codificación SEGUNDA EDICIÓN Construcción de sistemas y servicios VoIP Yolanda Blanco Fernández Martín López Nores Dispositivos y circuitos eléctricos analógicos Alfonso Lago Ferreiro Andrés A. Nogueiras Meléndez Problemas

Más detalles

MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo)

MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo) .Definición : MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo) H es una matriz de chequeo de un código C si C = Nu(H) = {x : Hx t = 0} 2.Teorema : [I A] es una matriz de chequeo de un codigo C si

Más detalles

Procesamiento de la Señal

Procesamiento de la Señal Filtrado I: Ruido 8 de abril de 2013 Repaso: Teoría de la Información La teoría de la información tiene por objeto la determinación de la manera más eciente de codicar un mensaje para su correcta entrega

Más detalles

TEST DE DETERMINANTES

TEST DE DETERMINANTES Página 1 de 7 TEST DE DETERMINANTES 1 Si A es una matriz cuadrada de orden 3 con A = -2, a qué es igual -A? A -2 B 2 C 0 D -6 2 A -144 B 44 C 88 D -31 3 Indicar qué igualdad es falsa: A B C D 4 A -54 B

Más detalles

Teoría de la Información

Teoría de la Información Teoría de la Información - Clase práctica - Teoría de las Comunicaciones Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 12.08.2015 Teoría de las Comunicaciones

Más detalles

Repaso de Estadística

Repaso de Estadística Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio

Más detalles

Análisis de Correspondencias Simple

Análisis de Correspondencias Simple 1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia

Más detalles

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real) TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor

Más detalles

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A

Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta A 1. Dada la ecuación matricial I + 3 X + A X B. Se pide:

Más detalles

Introducción a la Criptografía Cuántica

Introducción a la Criptografía Cuántica Introducción a la Criptografía Cuántica Alfonsa García, Francisco García 1 y Jesús García 1 1 Grupo de investigación en Información y Computación Cuántica (GIICC) Introducción a la criptografía cuántica

Más detalles

Procesos estocásticos

Procesos estocásticos Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:

Más detalles

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.

Por ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre. SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD En las aplicaciones, la incertidumbre es lo común y no la excepción. Por ejemplo, una pregunta típica en diagnóstico médico es: dado que el paciente presenta unos

Más detalles

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA

CLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA 1 CLASES DE ESTADÍSTICA II CLASE ) ESPERANZA ABSOLUTA. ESPERANZA CONDICIONAL. ESPERANZA ABSOLUTA El cálculo de valores esperados o esperanzas a nivel de dos variables aleatorias es una generalización matemática

Más detalles

Aplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación

Aplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación Aplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación Como un ejemplo de aplicación de la teoría de las estructuras algebraicas vamos a ver en esta sección un aspecto de la

Más detalles

Procesamiento Digital de Imágenes. Pablo Roncagliolo B. Nº 16

Procesamiento Digital de Imágenes. Pablo Roncagliolo B. Nº 16 Procesamiento Digital de Imágenes Pablo Roncagliolo B. Nº 16 Orden de las clases... CAPTURA, DIGITALIZACION Y ADQUISICION DE IMAGENES TRATAMIENTO ESPACIAL DE IMAGENES TRATAMIENTO EN FRECUENCIA DE IMAGENES

Más detalles

MATRICES Y DETERMINANTES II.

MATRICES Y DETERMINANTES II. MATRICES Y DETERMINANTES II. Matriz adjunta es la matriz cuadrada que se obtiene al sustituir cada elemento por su adjunto correspondiente. Calcula la matriz adjunta: 2 2 2 A =( 2 1 0 ) 3 2 2 Primero calculamos

Más detalles

Material introductorio

Material introductorio Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................

Más detalles

EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES

EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES DIEGO ERNESTO HERNÁNDEZ JIMÉNEZ Diego Ernesto Hernández Jiménez UNIVERSIDAD

Más detalles

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas

Banda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas Banda Ancha Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos MSc. Luis Rojas INTRODUCCIÓN Para el almacenamiento y transmisión eficiente de señales de voz, video y texto

Más detalles

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A).

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A). Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno a 11 = a 11 5 = 5 Determinante

Más detalles

Estadística Bayesiana

Estadística Bayesiana Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.

Más detalles

Carlos J. Zapata G Carlos A. Ramirez V

Carlos J. Zapata G Carlos A. Ramirez V Carlos J. Zapata G Carlos A. Ramirez V Introducción Los AG provienen de la familia de modelos computacionales basados en la evolución Holland fue el primero quien le dio un formalismo y el nombre a los

Más detalles

Examen de Teoría de (Introducción al) Reconocimiento de Formas

Examen de Teoría de (Introducción al) Reconocimiento de Formas Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:

Más detalles

INF Investigación de Operaciones

INF Investigación de Operaciones INF 3144 - Investigación de Operaciones Rodrigo Olivares Mg. en Ingeniería Informática rodrigo.olivares@uv.cl 26 de mayo de 2017 Rodrigo Olivares (PUCV) INF 3144 - Investigación de Operaciones 26 de mayo

Más detalles

MATE3012 Lección 3.2. Álgebra de Matrices. 02/28/2018 Prof. José G. Rodríguez Ahumada 1 de 17

MATE3012 Lección 3.2. Álgebra de Matrices. 02/28/2018 Prof. José G. Rodríguez Ahumada 1 de 17 MATE Lección. Álgebra de Matrices // Prof. José G. Rodríguez Ahumada de Actividades. Texto: Sección 9. Álgebra de Matrices Ejercicios de práctica: Página -; Ejercicios -. Referencias del Web: MathMe: Localizar

Más detalles

Matemática 2 MAT022. Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María. Matrices

Matemática 2 MAT022. Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María. Matrices Matemática 2 MAT022 Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María Tabla de Contenidos 1 Matrices Propiedades Tabla de Contenidos Matrices 1 Matrices Propiedades

Más detalles

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores

Análisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:

Más detalles

SISTEMAS Y MATRICES LECCIÓN 8

SISTEMAS Y MATRICES LECCIÓN 8 SISTEMAS Y MATRICES LECCIÓN 8 Índice: Producto de matrices. Propiedades del producto de matrices. Problemas..- Producto de matrices El producto de una matriz fila de orden n por una matriz columna de orden

Más detalles

En la codificación bloque la fuente de información como una secuencia binaria ("0" o "1 ) es segmentada en bloques u de longitud fija de largo k bits

En la codificación bloque la fuente de información como una secuencia binaria (0 o 1 ) es segmentada en bloques u de longitud fija de largo k bits En la codificación bloque la fuente de información como una secuencia binaria ("0" o "1 ) es segmentada en bloques u de longitud fija de largo k bits y se codifica en bloques v de n bits de código (>k),

Más detalles

Teoría de la información breve introducción práctica. Javier García, Graphics & Imaging Laboratory (UdG)

Teoría de la información breve introducción práctica. Javier García, Graphics & Imaging Laboratory (UdG) Teoría de la información breve introducción práctica Javier García, Graphics & Imaging Laboratory (UdG) Contenido Introducción Definición de Información y Entropía Ejemplos de aplicación I Ejemplos de

Más detalles

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)

Más detalles

Algebra lineal Matrices

Algebra lineal Matrices Algebra lineal Matrices Una matriz A un arreglo rectangular de números dispuestos en m renglones (filas) y n columnas. Fila 1 La componente o elemento ij de A, denotado por es el número que aparece en

Más detalles

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE 3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS // Curso 2017-18 3.1.1. Resolución de sistemas de ecuaciones lineales. Método

Más detalles

I.E.S. Tierra de Ciudad Rodrigo Departamento de Matemáticas TEMA 6. POLINOMIOS

I.E.S. Tierra de Ciudad Rodrigo Departamento de Matemáticas TEMA 6. POLINOMIOS TEMA 6. POLINOMIOS Una expresión algebraica es un conjunto de letras y números unidos por los signos matemáticos. Las expresiones algebraicas surgen de traducir al lenguaje matemático enunciados en los

Más detalles

Examen Final Extraordinario

Examen Final Extraordinario TRANSMISIÓN DE DATOS 2008/09 Examen Final Extraordinario Apellidos, nombre DNI 9 de septiembre de 2009 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique

Más detalles

1. Ecuaciones lineales en cuerpos finitos

1. Ecuaciones lineales en cuerpos finitos 1. Ecuaciones lineales en cuerpos finitos Un cuerpo es un conjunto F dotado de dos operaciones suma y producto, usualmente denotadas por + y que satisfacen los axiomas de los números reales, exceptuando

Más detalles

CONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero

CONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero Fundamento Científico del Currículum de Matemáticas en Enseñanza Secundaria CONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero ESPACIOS VECTORIALES DEFINICIÓN... 1 PROPIEDADES DE

Más detalles

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino

Códigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una

Más detalles

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores

Compresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores Compresión de Vídeo Tema.5. Codificación entrópica Juan A. Michell Mar>n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons BY- NC- SA

Más detalles

Orden de las clases...

Orden de las clases... Procesamiento Digital de Imágenes Pablo oncagliolo B. Nº 6 Orden de las clases... CAPTUA, DIGITALIZACION Y ADQUISICION DE IMAGENES TATAMIENTO ESPACIAL DE IMAGENES TATAMIENTO EN FECUENCIA DE IMAGENES ESTAUACION

Más detalles

M a t e m á t i c a s I I 1

M a t e m á t i c a s I I 1 Matemáticas II Matemáticas II EXTREMADURA CONVOCATORIA JUNIO 9 SOLUCIÓN DE LA PRUEBA DE ACCESO AUTOR: José Luis Pérez Sanz Opción A a) La matriz A tiene tres filas de las que para calcular el determinante

Más detalles

SISTEMAS DE ECUACIONES:MÉTODO DE DETERMINANTES

SISTEMAS DE ECUACIONES:MÉTODO DE DETERMINANTES SISTEMAS DE ECUACIONES:MÉTODO DE DETERMINANTES Apunte teórico OTRO MÉTODO DE RESOLUCIÓN DE SISTEMAS DE DOS ECUACIONES LINEALES CON DOS INCÓGNITAS MÉTODO DE DETERMINANTES O REGLA DE CRAMER Para conocer

Más detalles

Variables aleatorias bidimensionales discretas

Variables aleatorias bidimensionales discretas Universidad de San Carlos de Guatemala Facultad de Ingeniería Área de Estadística VARIABLES ALEATORIAS BIDIMENSIONALES Concepto: Sean X e Y variables aleatorias. Una variable aleatoria bidimensional (X,

Más detalles

Cuadrados mágicos y matrices de permutación

Cuadrados mágicos y matrices de permutación Cuadrados mágicos y matrices de permutación Alexey Beshenov (cadadr@gmail.com) 13 de agosto de 016 Estos son mis apuntes para una pequeña presentación para los alumnos del Programa Jóvenes Talento de la

Más detalles

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE

3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE 3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.1.1. Resolución de sistemas de ecuaciones lineales. Método

Más detalles

Matemáticas Discretas Probabilidad

Matemáticas Discretas Probabilidad Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa

Más detalles

Grado en Ciencias Ambientales. Matemáticas. Curso 10/11.

Grado en Ciencias Ambientales. Matemáticas. Curso 10/11. Grado en Ciencias Ambientales. Matemáticas. Curso 0/. Problemas Tema 2. Matrices y Determinantes. Matrices.. Determinar dos matrices cuadradas de orden 2, X e Y tales que: 2 2X 5Y = 2 ; X + 2Y = 4.2. Calcular

Más detalles

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y

Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias

Más detalles

Otra representación es la matricial haciendo el producto de la matriz de verificacion de paridad (H) y la de transmisión.

Otra representación es la matricial haciendo el producto de la matriz de verificacion de paridad (H) y la de transmisión. CODIGO DE HAMMING Este codigo utiliza control de paridad, pero no sobre la palabra completa que se va a transmitir, sino por grupos de bits. Cada grupo posee un bit de paridad, al existir varios grupos

Más detalles

Tema 3 Resolución de sistemas mediante determinantes

Tema 3 Resolución de sistemas mediante determinantes Tema Resolución de sistemas mediante determinantes. Calcula los siguientes determinantes: a) b) Resolvemos las actividades propuestas: a) hora resolveremos el problema con Wiris:. Esto es tan sencillo

Más detalles

DETERMINANTES. 2. Resuelve el siguiente determinante aplicando la regla de Sarrus:

DETERMINANTES. 2. Resuelve el siguiente determinante aplicando la regla de Sarrus: DETERMINNTES. Calcula el determinante de la siguiente matriz: 3 4 3 0..(3.0 2.0).0 0 0 3 4 0 0 3 Hemos sumado a la segunda fila la primera cambiada de signo. continuación hemos sumado a la tercera fila

Más detalles

a) La adición y la multiplicación de matries cuadradas del mismo orden, están bien definidas.

a) La adición y la multiplicación de matries cuadradas del mismo orden, están bien definidas. MATRICES CUADRADAS Definición: ( Cuadradas Una matriz A es una matriz cuadrada de orden n, si y solo si, A es de oreden n n, es decir, A tiene n filas y n columnas: a 11 a 1n a n1 a nn Observación: a La

Más detalles

Comunicaciones Digitales Codificación de Canal

Comunicaciones Digitales Codificación de Canal Comunicaciones Digitales Codificación de Canal Turbo Códigos Bibliografía Turbo códigos!! S. B. Wicker. Error Control Systems. Prentice Hall 1995!! L. Hanzo, T.H. Liew y B.L. Yeap. Turbo Coding, Turbo

Más detalles

MATRICES. Se denomina matriz de dimensión m n a todo conjunto cuyos elementos están dispuestos en m filas y n columnas. o simplemente A = (a.

MATRICES. Se denomina matriz de dimensión m n a todo conjunto cuyos elementos están dispuestos en m filas y n columnas. o simplemente A = (a. MATRICES Se denomina matriz de dimensión m n a todo conjunto cuyos elementos están dispuestos en m filas y n columnas A= 2 1 5 0 3 8 A es de dimensión 2 3. a a a En general una matriz de dimensión 2 3

Más detalles

Matemáticas Nivel Medio Matemáticas Ap.CC.SS.II

Matemáticas Nivel Medio Matemáticas Ap.CC.SS.II Matemáticas Nivel Medio Matemáticas Ap.CC.SS.II Martes, 05 de abril de 2018 1 hora y 15 minutos. NOMBRE Y APELLIDOS CALIFICACIÓN 1. Dadas las matrices A ( 2 1 1 2 ), B ( 0 1 ) e I la matriz identidad de

Más detalles

Sobre Codificación Conjunta Fuente-Canal

Sobre Codificación Conjunta Fuente-Canal UNIVERSIDAD CARLOS III DE MADRID ESCUELA POLITECNICA SUPERIOR MASTER EN MULTIMEDIA Y COMUNICACIONES Sobre Codificación Conjunta Fuente-Canal Luca Martino FEBRERO DE 2008 FEBRERO DE 2008 1 Introducción:

Más detalles

Estadística III Repaso de Algebra Lineal

Estadística III Repaso de Algebra Lineal Repaso de Algebra Lineal Vectores Un vector columna de dimensión n 1 es una serie de números dispuestos como sigue: x 1 x 2 x =. x n Un vector fila de dimensión 1 p es una serie de números dispuestos como

Más detalles

Cambio de base. Objetivos. Estudiar la relación entre las coordenadas de un vector en dos bases.

Cambio de base. Objetivos. Estudiar la relación entre las coordenadas de un vector en dos bases. Cambio de base Objetivos Estudiar la relación entre las coordenadas de un vector en dos bases Requisitos Definición de una base, multiplicación de una matriz por un vector, delta de Kronecker Definición

Más detalles

Matrices, Determinantes y Sistemas Lineales.

Matrices, Determinantes y Sistemas Lineales. 12 de octubre de 2014 Matrices Una matriz A m n es una colección de números ordenados en filas y columnas a 11 a 12 a 1n f 1 a 21 a 22 a 2n f 2....... a m1 a m2 a mn f m c 1 c 2 c n Decimos que la dimensión

Más detalles

Derivación numérica. h 0 h. f)(x) =

Derivación numérica. h 0 h. f)(x) = Derivación numérica Contenidos Derivada primera de funciones de una variable Derivada segunda de funciones de una variable Derivadas de funciones de dos variables Derivada primera de funciones de una variable

Más detalles