Ejercicios sobre probabilidades y entropías
|
|
- Eva María Sevilla Duarte
- hace 7 años
- Vistas:
Transcripción
1 Ejercicios sobre probabilidades y entropías CTI: Lección 1, Primer teorema de Shannon (SCT) Ramiro Moreno Chiral Dpt. Matemàtica (UdL) 10 de febrero de 2010 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
2 Índice CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
3 Índice CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
4 (I) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
5 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
6 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario (CSB) con probabilidad de error en un bit igual a 0 2. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
7 (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario (CSB) con probabilidad de error en un bit igual a 0 2. E BSC R P(X=1)= p 0 P(Y=1) P(Y=0) p p 1 1 p 1 p=0 2 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
8 (II) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
9 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
10 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
11 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
12 (II) Determinar P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
13 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Índice 1 2 Matriz de transición Probabilidad conjunta Probabilidades condicionadas 3 4 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
14 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
15 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
16 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
17 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
18 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. Se trata de una matriz estocástica: sus filas son distribuciones de probabilidad. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
19 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Matriz de transición La matriz de transición de un canal de comunicaciones, T Y X = (p ij ), se define p ij = P(Y = j X = i), es decir, T Y X define la probabilidad condicionada a priori. Se trata de una matriz estocástica: sus filas son distribuciones de probabilidad. En nuestro caso, ( ) ( 1 p p 0 T Y X = = 8 0 ) 2 p 1 p CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
20 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
21 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
22 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
23 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). Y una propiedad de las matrices estocásticas es que al multiplicarlas por una distribución de probabilidad se obtiene otra distribución de probabilidad. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
24 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de P(Y ) Podemos ver P(X) como un vector P(X) = (P(X = 0), P(X = 1)) = (0 7, 0 3). Y una propiedad de las matrices estocásticas es que al multiplicarlas por una distribución de probabilidad se obtiene otra distribución de probabilidad. En nuestro caso, P(X) T Y X = (0 7, 0 3) ( ) = (0 62, 0 38) = P(Y ). 8 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
25 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
26 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
27 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
28 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
29 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) = (P(X = 0, Y = 0) + P(X = 1, Y = 0), P(X = 0, Y = 1) + P(X = 1, Y = 1)) }{{} Regla del producto CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
30 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Efectivamente, hemos calculado P(Y ) Simbólicamente hemos hecho ( ) P(Y = 0 X = 0) P(Y = 1 X = 0) (P(X = 0), P(X = 1)) P(Y = 0 X = 1) P(Y = 1 X = 1) = (P(Y = 0 X = 0)P(X = 0) + P(Y = 0 X = 1)P(X = 1), P(Y = 1 X = 0)P(X = 0) + P(Y = 1 X = 1)P(X = 1)) = (P(X = 0, Y = 0) + P(X = 1, Y = 0), P(X = 0, Y = 1) + P(X = 1, Y = 1)) }{{} Regla del producto = (P(Y = 0), P(Y = 1)). }{{} Regla de la suma CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
31 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
32 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
33 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
34 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 ( ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
35 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 Y, para combrobar, la tabla completa, ( ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
36 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Cálculo de la probabilidad conjunta, P(X = i, Y = j) Bastará multiplicar cada fila de la matriz de transición por la correspondiente P(X = i), P(X = 0) P(X = 1) P XY = ( ) P(Y = 0 X = 0) P(Y = 1 X = 0), P(Y = 0 X = 1) P(Y = 1 X = 1) ( ) = 3 Y, para combrobar, la tabla completa, ( ) P XY Y = 0 Y = 1 Marginal de X X = X = Marginal de Y CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
37 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
38 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
39 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
40 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
41 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
42 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), P(Y = 0) P(Y = 1) ( ) P(X = 0, Y = 0) P(X = 0, Y = 1), P(X = 1, Y = 0) P(X = 1, Y = 1) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
43 Matriz de transición Probabilidad conjunta Probabilidades condicionadas Probabilidades condicionadas Hemos visto que la matriz de transición T Y X define las probabilidades a priori, i.e., P(Y = j X = i). Las probabilidades a posteriori, P(X = i Y = j), muy importantes en la decodificación de canal, las calculamos dividiendo cada columna de la matriz de probabilidad conjunta, P XY, por los valores P(Y = j), P(Y = 0) P(Y = 1) ( ) P(X = 0, Y = 0) P(X = 0, Y = 1), P(X = 1, Y = 0) P(X = 1, Y = 1) ( 0 P X Y = 56/ /0 ) ( / /0 = 90 0 ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
44 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Índice Entropías binarias Entropía conjunta Entropías condicionales Información mutua 4 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
45 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
46 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
47 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, h(p) = p log p (1 p) log(1 p). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
48 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
49 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). H(X) = h(0 3) = 0 88 bits, H(Y ) = h(0 38) = 0 95 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
50 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(X) y H(Y ) Como X e Y son v.a. s con espacio de estados binario, {0, 1}, podemos aplicar la fórmula de la entropía binaria, Y tendremos, h(p) = p log p (1 p) log(1 p). H(X) = h(0 3) = 0 88 bits, H(Y ) = h(0 38) = 0 95 bits. h p 1 Entropía binaria, h p p CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
51 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
52 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
53 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
54 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, H(p 1,..., p n ) = n p k log p k. k=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
55 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, Y tendremos, H(p 1,..., p n ) = n p k log p k. k=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
56 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropía H(X, Y ) Ahora el espacio de estados de la variable conjunta (X, Y ) es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula general, Y tendremos, H(p 1,..., p n ) = n p k log p k. k=1 H(X, Y ) = H(0 56, 0 06, 0 14, 0 24) = 1 60 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
57 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
58 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
59 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
60 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = n P(X = i, Y = j) log P(Y = j X = i). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
61 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
62 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 H(Y X) = (0 56 log log log log 0 8) = 0 72 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
63 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Entropías H(Y X) y H(X Y ) Ahora el espacio de estados de la variable condicionada Y X es {(0, 0), (0, 1), (1, 0), (1, 1)}: aplicamos la fórmula de la entropía condicionada, H(Y X) = Y tendremos, n P(X = i, Y = j) log P(Y = j X = i). i,j=1 H(Y X) = (0 56 log log log log 0 8) = 0 72 bits. Similarmente, H(X Y ) = (0 56 log log log log 0 63) = 0 65 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
64 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
65 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
66 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
67 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = Y tendremos, n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
68 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Cálculo directo Aplicamos la fórmula de la información mutua, como distancia entre las distribuciones P(X, Y ) y P(X)P(Y ), I(X; Y ) = Y tendremos, n P(X = i, Y = j) P(X = i, Y = j) log P(X = i)p(y = j). i,j=1 I(X; Y ) = 0 56 log log log log = 0 24 bits. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
69 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
70 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
71 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
72 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 explica las relaciones fundamentales entre las entropías y la información mutua, CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
73 Entropías binarias Entropía conjunta Entropías condicionales Información mutua Relaciones entre entropías e información mutua El siguiente gráfico H(X,Y)=1 60 H(X Y)=0 65 I (X;Y)= =0 23 H(Y X)=0 72 H (X)=0 88 H (Y)=0 95 explica las relaciones fundamentales entre las entropías y la información mutua, I(X; Y ) = H(X) H(X Y ) = H(Y ) H(Y X), H(X, Y ) = H(X Y ) + I(X; Y ) + H(Y X). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
74 Canal simétrico binario con borrón, BEC Índice Canal simétrico binario con borrón, BEC CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
75 Canal simétrico binario con borrón, BEC BEC (I) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
76 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
77 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario con borrón o borrado (BEC) con probabilidad de error en un bit igual a 0 15 y de borrón de CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
78 Canal simétrico binario con borrón, BEC BEC (I) Una fuente E emite bits de modo que la probabilidad en cualquier momento de emitir un uno sea 0 3. Esos bits son transmitidos hasta un receptor R a través de un canal simétrico binario con borrón o borrado (BEC) con probabilidad de error en un bit igual a 0 15 y de borrón de E BEC R P(X=1)= p q 0 P(Y=1) P(Y=0) p p q q * 1 1 p q 1 p=0 15 CTI, lección 1 (Problemas) q=0 05 Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
79 Canal simétrico binario con borrón, BEC BEC (II) CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
80 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
81 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
82 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
83 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. Explicad las relaciones entre las entropías y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
84 Canal simétrico binario con borrón, BEC BEC (II) Determinad P(Y ), i.e., la distribución marginal de la v.a. Y. Idem la P(X, Y ), i.e., la distribución conjunta de las v.a. s X e Y. Y la de la condidional P(X Y ). Luego las entropías de todas las distribuciones de probabilidad y la información mutua. Explicad las relaciones entre las entropías y la información mutua. CTI, lección 1 (Problemas) Ejercicios sobre probabilidades y entropías 10 de febrero de / 20
Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino.
Un canal de comunicación puede ser definido como el medio a través del cual la señal del mensaje se propaga desde la fuente hasta el destino. Se dice que un canal es ruidoso si la lectura de los datos
Más detallesIntroducción a los códigos compresores
Introducción a los códigos compresores Parte I de la Lección 2, Compresores sin pérdidas, de CTI Ramiro Moreno Chiral Dpt. Matemàtica (UdL) Febrero de 2010 Ramiro Moreno (Matemàtica, UdL) Introducción
Más detallesTeoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial)
Teoría de Información y Codificación Ejercicios adicionales (temas correspondientes al primer parcial) 1. Calcular la tasa de entropía H r de una fuente de Markov estacionaria con m símbolos, con probabilidades
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Tasa de Entropía de un Proceso Estocástico. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 13 Agenda 1 Procesos
Más detallesConceptos básicos de teoría de la información. Luca Mar8no Apuntes no revisados Cuidado!
Conceptos básicos de teoría de la información Luca ar8no Apuntes no revisados Cuidado! Información La información asociada a un evento con probabilidad p(x) se define I(x) = log[ p(x) ] Unidad de medida:
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Conceptos Básicos. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 32 Agenda 1 Definiciones y Propiedades Básicas
Más detallesTeoría de la Información Estadística p. 1/1
Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco http://www.sc.ehu.es/isg/ Teoría de la Información
Más detallesTema 7: Teoría de la Información Estadística p. 1/16
Tema 7: Teoría de la Información Estadística p. 1/16 Tema 7: Teoría de la Información Estadística Abdelamlik Moujahid, Iñaki Inza, Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia
Más detallesTeoría de la Información Estadística
Teoría de la Información Estadística Pedro Larrañaga, Iñaki Inza Intelligent Systems Group Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del País Vasco MMCC 2005-2006
Más detalles4.5. PROBLEMAS 323. con probabilidades 0.2, 0.1, 0.15, 0.05, 0.3, 0.2, respectivamente. Calcule la entropía en bits/muestra y en bits/segundo.
45 PROBLEMAS 323 45 Problemas Problema 41 Una fuente tiene un alfabeto {a 1,a 2,a 3,a 4,a 5,a 6 } con probabilidades {01, 02, 03, 005, 015, 02} Calcule la entropía de la fuente y compare dicha entropía
Más detallesMaribel Martínez y Ginés Ciudad-Real Fichas para mejorar la atención MATRIZ DE LETRAS
MATRIZ DE LETRAS p q d b p p b n g b n w n w n n w b p q d b p q d n w n g b n p q p q p q d b p n g n g n g b n w n d b d b b p q d b b n b n n w n g b n p q p q p q d b p n g n g n g b n w n d b d b
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Entropía diferencial. Facultad de Ingeniería, UdelaR (Facultad de Ingeniería, UdelaR) Teoría de la Información 1 / 19 Definición Definición (Entropía diferencial)
Más detallesExamen Final, Convocatoria Extraordinaria 2 de julio de Modalidad de test A
E.T.S.I. TELECOMUNICACIÓN UNIVERSIDAD POLITÉCNICA DE VALENCIA TRANSMISIÓN DE DATOS 5 o cuatrimestre, Plan 96 Examen Final, Convocatoria Extraordinaria 2 de julio de 2009 Modalidad de test A Profesores:
Más detallesTeoría de la Comunicación
56 Ejercicio Ejercicio 51 Una variable aleatoria tiene un alfabeto A X = {,,x 3,x 4,x 5,x 6 } con probabilidade p X ( )=0,1, p X ( )=0,2, p X (x 3 )=0,3, p X (x 4 )=0,05, p X (x 5 )=0,15, p X (x 6 )=0,2
Más detallesSistemas de comunicación
Sistemas de comunicación Práctico 6 Teoría de la Información Cada ejercicio comienza con un símbolo el cuál indica su dificultad de acuerdo a la siguiente escala: básica, media, avanzada, y difícil. Además
Más detallesSISTEMAS DE COMUNICACIONES
Capítulo 3 SISTEMAS DE COMUNICACIONES Un sistema de comunicaciones es un conjunto de dispositivos que son utilizados con la finalidad de transmitir, emitir y recibir señales de todo tipo, como voz, datos,
Más detallesEL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información
EL4005 Principios de Comunicaciones Clase No. 11: Modelamiento de Fuentes de Información Patricio Parada Néstor Becerra Yoma Departamento de Ingeniería Eléctrica Universidad de Chile 18 de Noviembre de
Más detalles2 de mar de 2004 Codificación de imágenes y v ideo
Teoría de la Información 2 de mar de 2004 Codificación de imágenes y v ideo 2 de mar de 2004 Codificación de imágenes y video 2 El clima en el Río de la Plata...... N L N N L S N... N L L T L L L... N
Más detallesSistemas de Comunicación Segundo Parcial
Sistemas de Comunicación Segundo Parcial Instituto de Ingeniería Eléctrica 7 de julio de 2017 Indicaciones: La prueba tiene una duración total de 3 horas y 30 minutos. Cada hoja entregada debe indicar
Más detallesMatrices y determinantes
Matrices y determinantes 1 Matrices Una matriz de orden m n es un conjunto de m n números ordenados en m filas y n columnas Por ejemplo, 1 1 2 0 2 0 2 1 1 1 2 1 3 0 2 es una matriz de orden 3 5 Una matriz
Más detallesClase 8 Matrices Álgebra Lineal
Clase 8 Matrices Álgebra Lineal Código Escuela de Matemáticas - Facultad de Ciencias Universidad Nacional de Colombia Matrices Definición Una matriz es un arreglo rectangular de números denominados entradas
Más detallesText Mining. Laura Alonso i Alemany. Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina)
Text Mining Facultad de Matemática, Astronomía y Física UNC, Córdoba (Argentina) http://www.cs.famaf.unc.edu.ar/~laura SADIO 9 de Abril de 2010 contenidos unidades mínimas de significado contenidos unidades
Más detallesFuentes de información
TEORÍA DE LA INFORMACIÓN Tratamiento probabilístico de la Información Fuentes de información INGENIERÍA DE SISTEMAS 07 TRANSMISIÓN DE INFORMACIÓN decodificación automática capacidad del canal Claude Shannon
Más detallesTEMA 3.- VECTORES ALEATORIOS.- CURSO
TEMA 3.- VECTORES ALEATORIOS.- CURSO 017-018 3.1. VARIABLES ALEATORIAS BIDIMENSIONALES. FUNCIÓN DE DISTRIBUCIÓN CONJUNTA. 3.. VARIABLES BIDIMENSIONALES DISCRETAS. 3.3. VARIABLES BIDIMENSIONALES CONTINUAS.
Más detallesIntroducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011
Introducción a la Teoría de la Información Tomás V. Arredondo 8/4/20 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información
Más detallesIntroducción a la Teoría de la Información
Introducción a la Teoría de la Información Ejemplos de ejercicios de la prueba final Problema 1 Considerar un par de canales gaussianos paralelos de forma que: ( ) ( ) ( ) Y1 X1 Z1 = + donde Y 2 ( Z1 Z
Más detallesALGUNAS APLICACIONES DE LAS DESIGUALDADES NO-SHANNON A LA TEORÍA DE GRUPOS. Daniel Felipe Castro Ovalle. Matemático
ALGUNAS APLICACIONES DE LAS DESIGUALDADES NO-SHANNON A LA TEORÍA DE GRUPOS. Daniel Felipe Castro Ovalle. Matemático Universidad Nacional de Colombia Facultad de Ciencias Departamento de Matemáticas Bogotá,
Más detallesElementos de una matriz.
Matrices. Elementos de una matriz. Renglón. Columnas. A=[a ij ] A-Nombre de la matriz. a-número. i-renglón. j-columna. i j-orden de la matriz. Ejercicio. Indica el orden de la matriz. Indica el valor de
Más detallesMatemáticas Empresariales II. Formas cuadráticas
Matemáticas Empresariales II Lección 7 Formas cuadráticas Manuel León Navarro Colegio Universitario Cardenal Cisneros M. León Matemáticas Empresariales II 1 / 17 Definición de Formas cuadráticas Sea V
Más detallesEL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades
EL4005 Principios de Comunicaciones Clase No.10: Repaso de Probabilidades Patricio Parada Departamento de Ingeniería Eléctrica Universidad de Chile 10 de Septiembre de 2010 1 of 29 Contenidos de la Clase
Más detallesUNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA
508 515 SEMANA: PROPÓSITO Esta asignatura ofrece al alumno los conocimientos básicos para analizar sistemas estocásticos que se encuentran descritos mediante variables aleatorias proporcionándole las herramientas
Más detallesCálculo científico y técnico con HP49g/49g+/48gII/50g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov
Cálculo científico y técnico con HP49g/49g+/48gII/5g Módulo 3: Aplicaciones Tema 3.5 Cadenas de Markov Francisco Palacios Escuela Politécnica Superior de Ingeniería de Manresa Universidad Politécnica de
Más detallesAlgebra de Matrices 1
Algebra de Matrices Definición Una matriz es un arreglo rectangular de valores llamados elementos, organizados por filas y columnas. Ejemplo: Notas: A 6. Las matrices son denotadas con letras mayúsculas..
Más detallesPráctica 1: Sistemas de Ecuaciones Lineales - Matrices
ALGEBRA LINEAL Primer Cuatrimestre 2017 Práctica 1: Sistemas de Ecuaciones Lineales - Matrices En todas las prácticas, K es un cuerpo; en general K = Q (los números racionales, R (los números reales o
Más detallesIntroducción. Distribución Gaussiana. Procesos Gaussianos. Eduardo Morales INAOE (INAOE) 1 / 47
Eduardo Morales INAOE (INAOE) 1 / 47 Contenido 1 2 3 (INAOE) 2 / 47 Normalmente, en los algoritmos de aprendizaje que hemos visto, dado un conjunto de ejemplos de entrenamiento se busca encontrar el mejor
Más detallesMATLAB y la teoría de la información
MATLAB y la teoría de la información Tomás Robles Valladares Borja Bordel Sánchez Ramón Alcarria Garrido Diego Martín de Andrés MATLAB aplicado a la ingeniería telemática Departamento de Ingeniería de
Más detallesTeoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia)
Teoría de Información y Codificación Ejercicios adicionales (corresponden a la segunda mitad de la materia) 1. Demostrar que en un código binario lineal la distancia mínima es igual a a) el mínimo peso
Más detallesCONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 MATRICES
CONTENIDOS MATEMÁTICAS II SEGUNDA EVALUACIÓN CURSO 2017/2018 Unidades: - Matrices (Bloque Álgebra) - Determinantes (Bloque Álgebra) - Sistemas de ecuaciones lineales (Bloque Álgebra) - Vectores (Bloque
Más detallesTeoría de la Información y Codificación
SEGUNDA EDICIÓN Construcción de sistemas y servicios VoIP Yolanda Blanco Fernández Martín López Nores Dispositivos y circuitos eléctricos analógicos Alfonso Lago Ferreiro Andrés A. Nogueiras Meléndez Problemas
Más detallesMATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo)
.Definición : MATEMATICA DISCRETA II-2007 Códigos (matriz de chequeo) H es una matriz de chequeo de un código C si C = Nu(H) = {x : Hx t = 0} 2.Teorema : [I A] es una matriz de chequeo de un codigo C si
Más detallesProcesamiento de la Señal
Filtrado I: Ruido 8 de abril de 2013 Repaso: Teoría de la Información La teoría de la información tiene por objeto la determinación de la manera más eciente de codicar un mensaje para su correcta entrega
Más detallesTEST DE DETERMINANTES
Página 1 de 7 TEST DE DETERMINANTES 1 Si A es una matriz cuadrada de orden 3 con A = -2, a qué es igual -A? A -2 B 2 C 0 D -6 2 A -144 B 44 C 88 D -31 3 Indicar qué igualdad es falsa: A B C D 4 A -54 B
Más detallesTeoría de la Información
Teoría de la Información - Clase práctica - Teoría de las Comunicaciones Departamento de Computación Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 12.08.2015 Teoría de las Comunicaciones
Más detallesRepaso de Estadística
Teoría de la Comunicación I.T.T. Sonido e Imagen 25 de febrero de 2008 Indice Teoría de la probabilidad 1 Teoría de la probabilidad 2 3 4 Espacio de probabilidad: (Ω, B, P) Espacio muestral (Ω) Espacio
Más detallesAnálisis de Correspondencias Simple
1 Capítulo 4 Análisis de Correspondencias Simple 41 INTRODUCCIÓN El Análisis de Correspondencias Simple permite describir las relaciones entre dos variables categóricas dispuestas en una tabla de contingencia
Más detallesTEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)
TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES Grado Ing Telemática (UC3M) Teoría de la Comunicación Variable Aleatoria / 26 Variable aleatoria (Real) Función que asigna un valor
Más detallesPruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado (PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio Propuesta A
Pruebas de Acceso a Enseñanzas Universitarias Oficiales de Grado PAEG) Matemáticas aplicadas a las Ciencias Sociales II - Junio 2011 - Propuesta A 1. Dada la ecuación matricial I + 3 X + A X B. Se pide:
Más detallesIntroducción a la Criptografía Cuántica
Introducción a la Criptografía Cuántica Alfonsa García, Francisco García 1 y Jesús García 1 1 Grupo de investigación en Información y Computación Cuántica (GIICC) Introducción a la criptografía cuántica
Más detallesProcesos estocásticos
Procesos estocásticos Las cadenas de Markov estudian procesos estocásticos Los procesos estocásticos son modelos matemáticos que describen sistemas dinámicos sometidos a procesos aleatorios Parámetros:
Más detallesPor ello, son necesarios los sistemas expertos que traten situaciones de incertidumbre.
SISTEMAS EXPERTOS BASADOS EN PROBABILIDAD En las aplicaciones, la incertidumbre es lo común y no la excepción. Por ejemplo, una pregunta típica en diagnóstico médico es: dado que el paciente presenta unos
Más detallesCLASES DE ESTADÍSTICA II ESPERANZA ABSOLUTA
1 CLASES DE ESTADÍSTICA II CLASE ) ESPERANZA ABSOLUTA. ESPERANZA CONDICIONAL. ESPERANZA ABSOLUTA El cálculo de valores esperados o esperanzas a nivel de dos variables aleatorias es una generalización matemática
Más detallesAplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación
Aplicaciones de la teoría de grupos, anillos y cuerpos: Teoría de la Codificación Como un ejemplo de aplicación de la teoría de las estructuras algebraicas vamos a ver en esta sección un aspecto de la
Más detallesProcesamiento Digital de Imágenes. Pablo Roncagliolo B. Nº 16
Procesamiento Digital de Imágenes Pablo Roncagliolo B. Nº 16 Orden de las clases... CAPTURA, DIGITALIZACION Y ADQUISICION DE IMAGENES TRATAMIENTO ESPACIAL DE IMAGENES TRATAMIENTO EN FRECUENCIA DE IMAGENES
Más detallesMATRICES Y DETERMINANTES II.
MATRICES Y DETERMINANTES II. Matriz adjunta es la matriz cuadrada que se obtiene al sustituir cada elemento por su adjunto correspondiente. Calcula la matriz adjunta: 2 2 2 A =( 2 1 0 ) 3 2 2 Primero calculamos
Más detallesMaterial introductorio
Material introductorio Nombre del curso: Teoría Moderna de la Detección y Estimación Autores: Vanessa Gómez Verdejo Índice general. Variables aleatorias unidimensionales..................................
Más detallesEL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES
EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES EL CANAL DE ELIMINACIÓN: RESULTADOS, ALGORITMOS Y APROXIMACIONES DIEGO ERNESTO HERNÁNDEZ JIMÉNEZ Diego Ernesto Hernández Jiménez UNIVERSIDAD
Más detallesBanda Ancha. Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos. MSc. Luis Rojas
Banda Ancha Compresión, Almacenamiento y Transmisión Eficiente de Señales de Voz, Video y Datos MSc. Luis Rojas INTRODUCCIÓN Para el almacenamiento y transmisión eficiente de señales de voz, video y texto
Más detallesDeterminantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A).
Determinantes Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A). A = Determinante de orden uno a 11 = a 11 5 = 5 Determinante
Más detallesEstadística Bayesiana
Procesos Estocásticos Universidad Nacional Agraria La Molina 2016-1 Un proceso estocástico {X (t), t T } es una colección de variables aleatorias. Es decir que para cada t T, X (t) es una variable aleatoria.
Más detallesCarlos J. Zapata G Carlos A. Ramirez V
Carlos J. Zapata G Carlos A. Ramirez V Introducción Los AG provienen de la familia de modelos computacionales basados en la evolución Holland fue el primero quien le dio un formalismo y el nombre a los
Más detallesExamen de Teoría de (Introducción al) Reconocimiento de Formas
Examen de Teoría de (Introducción al) Reconocimiento de Formas Facultad de Informática, Departamento de Sistemas Informáticos y Computación Universidad Politécnica de Valencia, Enero de 007 Apellidos:
Más detallesINF Investigación de Operaciones
INF 3144 - Investigación de Operaciones Rodrigo Olivares Mg. en Ingeniería Informática rodrigo.olivares@uv.cl 26 de mayo de 2017 Rodrigo Olivares (PUCV) INF 3144 - Investigación de Operaciones 26 de mayo
Más detallesMATE3012 Lección 3.2. Álgebra de Matrices. 02/28/2018 Prof. José G. Rodríguez Ahumada 1 de 17
MATE Lección. Álgebra de Matrices // Prof. José G. Rodríguez Ahumada de Actividades. Texto: Sección 9. Álgebra de Matrices Ejercicios de práctica: Página -; Ejercicios -. Referencias del Web: MathMe: Localizar
Más detallesMatemática 2 MAT022. Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María. Matrices
Matemática 2 MAT022 Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María Tabla de Contenidos 1 Matrices Propiedades Tabla de Contenidos Matrices 1 Matrices Propiedades
Más detallesAnálisis de Datos. Conceptos básicos de probabilidad y teorema de Bayes. Profesor: Dr. Wilfrido Gómez Flores
Análisis de Datos Conceptos básicos de probabilidad y teorema de Bayes Profesor: Dr. Wilfrido Gómez Flores 1 Introducción Los fenómenos del mundo real se pueden clasificar en dos tipos: Determínistico:
Más detallesSISTEMAS Y MATRICES LECCIÓN 8
SISTEMAS Y MATRICES LECCIÓN 8 Índice: Producto de matrices. Propiedades del producto de matrices. Problemas..- Producto de matrices El producto de una matriz fila de orden n por una matriz columna de orden
Más detallesEn la codificación bloque la fuente de información como una secuencia binaria ("0" o "1 ) es segmentada en bloques u de longitud fija de largo k bits
En la codificación bloque la fuente de información como una secuencia binaria ("0" o "1 ) es segmentada en bloques u de longitud fija de largo k bits y se codifica en bloques v de n bits de código (>k),
Más detallesTeoría de la información breve introducción práctica. Javier García, Graphics & Imaging Laboratory (UdG)
Teoría de la información breve introducción práctica Javier García, Graphics & Imaging Laboratory (UdG) Contenido Introducción Definición de Información y Entropía Ejemplos de aplicación I Ejemplos de
Más detallesDISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD
DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD FUNCIÓN DE DISTRIBUCIÓN ( CONJUNTA ) DE UN VECTOR ALEATORIO FUNCIÓN DE CUANTÍA ( CONJUNTA) DE VECTORES ALETORIOS DISCRETOS FUNCIÓN DE DENSIDAD (CONJUNTA)
Más detallesAlgebra lineal Matrices
Algebra lineal Matrices Una matriz A un arreglo rectangular de números dispuestos en m renglones (filas) y n columnas. Fila 1 La componente o elemento ij de A, denotado por es el número que aparece en
Más detalles3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE
3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS // Curso 2017-18 3.1.1. Resolución de sistemas de ecuaciones lineales. Método
Más detallesI.E.S. Tierra de Ciudad Rodrigo Departamento de Matemáticas TEMA 6. POLINOMIOS
TEMA 6. POLINOMIOS Una expresión algebraica es un conjunto de letras y números unidos por los signos matemáticos. Las expresiones algebraicas surgen de traducir al lenguaje matemático enunciados en los
Más detallesExamen Final Extraordinario
TRANSMISIÓN DE DATOS 2008/09 Examen Final Extraordinario Apellidos, nombre DNI 9 de septiembre de 2009 Calificación Lea atentamente estas instrucciones y no de la vuelta a esta hoja hasta que se le indique
Más detalles1. Ecuaciones lineales en cuerpos finitos
1. Ecuaciones lineales en cuerpos finitos Un cuerpo es un conjunto F dotado de dos operaciones suma y producto, usualmente denotadas por + y que satisfacen los axiomas de los números reales, exceptuando
Más detallesCONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero
Fundamento Científico del Currículum de Matemáticas en Enseñanza Secundaria CONCEPTOS BÁSICOS DE ESPACIOS VECTORIALES Alumno. Cristina Mª Méndez Suero ESPACIOS VECTORIALES DEFINICIÓN... 1 PROPIEDADES DE
Más detallesCódigos IRA. Máster en Multimedia y Comunicaciones Comunicaciones Digitales. Luca Martino
Códigos IRA Máster en Multimedia y Comunicaciones Comunicaciones Digitales Luca Martino Codificación de Canal! Supongamos tener un canal binario discreto, simétrico sin memoria:! Objetivo: encontrar una
Más detallesCompresión de Vídeo. Juan A. Michell Mar>n Gustavo A. Ruiz Robredo. Tema 1.5. Codificación entrópica. Departamento de Electrónica y Computadores
Compresión de Vídeo Tema.5. Codificación entrópica Juan A. Michell Mar>n Gustavo A. Ruiz Robredo Departamento de Electrónica y Computadores Este tema se publica bajo Licencia: Crea9ve Commons BY- NC- SA
Más detallesOrden de las clases...
Procesamiento Digital de Imágenes Pablo oncagliolo B. Nº 6 Orden de las clases... CAPTUA, DIGITALIZACION Y ADQUISICION DE IMAGENES TATAMIENTO ESPACIAL DE IMAGENES TATAMIENTO EN FECUENCIA DE IMAGENES ESTAUACION
Más detallesM a t e m á t i c a s I I 1
Matemáticas II Matemáticas II EXTREMADURA CONVOCATORIA JUNIO 9 SOLUCIÓN DE LA PRUEBA DE ACCESO AUTOR: José Luis Pérez Sanz Opción A a) La matriz A tiene tres filas de las que para calcular el determinante
Más detallesSISTEMAS DE ECUACIONES:MÉTODO DE DETERMINANTES
SISTEMAS DE ECUACIONES:MÉTODO DE DETERMINANTES Apunte teórico OTRO MÉTODO DE RESOLUCIÓN DE SISTEMAS DE DOS ECUACIONES LINEALES CON DOS INCÓGNITAS MÉTODO DE DETERMINANTES O REGLA DE CRAMER Para conocer
Más detallesVariables aleatorias bidimensionales discretas
Universidad de San Carlos de Guatemala Facultad de Ingeniería Área de Estadística VARIABLES ALEATORIAS BIDIMENSIONALES Concepto: Sean X e Y variables aleatorias. Una variable aleatoria bidimensional (X,
Más detallesCuadrados mágicos y matrices de permutación
Cuadrados mágicos y matrices de permutación Alexey Beshenov (cadadr@gmail.com) 13 de agosto de 016 Estos son mis apuntes para una pequeña presentación para los alumnos del Programa Jóvenes Talento de la
Más detalles3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE
3. ÁLGEBRA LINEAL // 3.1. SISTEMAS DE ECUACIONES LINEALES Y MATRICES COMPLEMENTOS PARA LA FORMACIÓN DISCIPLINAR EN MATEMÁTICAS Curso 2011-2012 3.1.1. Resolución de sistemas de ecuaciones lineales. Método
Más detallesMatemáticas Discretas Probabilidad
Coordinación de Ciencias Computacionales - INAOE Matemáticas Discretas Probabilidad Cursos Propedéuticos 2010 Ciencias Computacionales INAOE Teoría de Probabilidad Considero que la probabilidad representa
Más detallesGrado en Ciencias Ambientales. Matemáticas. Curso 10/11.
Grado en Ciencias Ambientales. Matemáticas. Curso 0/. Problemas Tema 2. Matrices y Determinantes. Matrices.. Determinar dos matrices cuadradas de orden 2, X e Y tales que: 2 2X 5Y = 2 ; X + 2Y = 4.2. Calcular
Más detallesTeoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y
Profesores de TMDE Teoría Moderna de Decisión y Estimación, Notas Introductorias: Cálculo de probabilidades y estadística Monograph 9 de septiembre de 23 Springer Índice general. Variables aleatorias
Más detallesOtra representación es la matricial haciendo el producto de la matriz de verificacion de paridad (H) y la de transmisión.
CODIGO DE HAMMING Este codigo utiliza control de paridad, pero no sobre la palabra completa que se va a transmitir, sino por grupos de bits. Cada grupo posee un bit de paridad, al existir varios grupos
Más detallesTema 3 Resolución de sistemas mediante determinantes
Tema Resolución de sistemas mediante determinantes. Calcula los siguientes determinantes: a) b) Resolvemos las actividades propuestas: a) hora resolveremos el problema con Wiris:. Esto es tan sencillo
Más detallesDETERMINANTES. 2. Resuelve el siguiente determinante aplicando la regla de Sarrus:
DETERMINNTES. Calcula el determinante de la siguiente matriz: 3 4 3 0..(3.0 2.0).0 0 0 3 4 0 0 3 Hemos sumado a la segunda fila la primera cambiada de signo. continuación hemos sumado a la tercera fila
Más detallesa) La adición y la multiplicación de matries cuadradas del mismo orden, están bien definidas.
MATRICES CUADRADAS Definición: ( Cuadradas Una matriz A es una matriz cuadrada de orden n, si y solo si, A es de oreden n n, es decir, A tiene n filas y n columnas: a 11 a 1n a n1 a nn Observación: a La
Más detallesComunicaciones Digitales Codificación de Canal
Comunicaciones Digitales Codificación de Canal Turbo Códigos Bibliografía Turbo códigos!! S. B. Wicker. Error Control Systems. Prentice Hall 1995!! L. Hanzo, T.H. Liew y B.L. Yeap. Turbo Coding, Turbo
Más detallesMATRICES. Se denomina matriz de dimensión m n a todo conjunto cuyos elementos están dispuestos en m filas y n columnas. o simplemente A = (a.
MATRICES Se denomina matriz de dimensión m n a todo conjunto cuyos elementos están dispuestos en m filas y n columnas A= 2 1 5 0 3 8 A es de dimensión 2 3. a a a En general una matriz de dimensión 2 3
Más detallesMatemáticas Nivel Medio Matemáticas Ap.CC.SS.II
Matemáticas Nivel Medio Matemáticas Ap.CC.SS.II Martes, 05 de abril de 2018 1 hora y 15 minutos. NOMBRE Y APELLIDOS CALIFICACIÓN 1. Dadas las matrices A ( 2 1 1 2 ), B ( 0 1 ) e I la matriz identidad de
Más detallesSobre Codificación Conjunta Fuente-Canal
UNIVERSIDAD CARLOS III DE MADRID ESCUELA POLITECNICA SUPERIOR MASTER EN MULTIMEDIA Y COMUNICACIONES Sobre Codificación Conjunta Fuente-Canal Luca Martino FEBRERO DE 2008 FEBRERO DE 2008 1 Introducción:
Más detallesEstadística III Repaso de Algebra Lineal
Repaso de Algebra Lineal Vectores Un vector columna de dimensión n 1 es una serie de números dispuestos como sigue: x 1 x 2 x =. x n Un vector fila de dimensión 1 p es una serie de números dispuestos como
Más detallesCambio de base. Objetivos. Estudiar la relación entre las coordenadas de un vector en dos bases.
Cambio de base Objetivos Estudiar la relación entre las coordenadas de un vector en dos bases Requisitos Definición de una base, multiplicación de una matriz por un vector, delta de Kronecker Definición
Más detallesMatrices, Determinantes y Sistemas Lineales.
12 de octubre de 2014 Matrices Una matriz A m n es una colección de números ordenados en filas y columnas a 11 a 12 a 1n f 1 a 21 a 22 a 2n f 2....... a m1 a m2 a mn f m c 1 c 2 c n Decimos que la dimensión
Más detallesDerivación numérica. h 0 h. f)(x) =
Derivación numérica Contenidos Derivada primera de funciones de una variable Derivada segunda de funciones de una variable Derivadas de funciones de dos variables Derivada primera de funciones de una variable
Más detalles