Introducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011
|
|
- Víctor Manuel Martín Sánchez Páez
- hace 8 años
- Vistas:
Transcripción
1 Introducción a la Teoría de la Información Tomás V. Arredondo 8/4/20
2 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.
3 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Que es la información? La información como es conocida comúnmente es una amalgama de muchas nociones vagas e imprecisas que generalmente es medida basada en la cantidad de noticia (o sorpresa) que provee. Que es la teoría de la información? Serie de las leyes para relacionar determinado orden de fenómenos relacionados con la comunicación de la información entre su origen y su destino a través de un canal.
4 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Comunicaciones Básico Origen Canal Destino Mensaje M Mensaje M
5 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Cuál es el rol de las probabilidades en las comunicaciones? Las probabilidades nos dan una manera de determinar cuantitativamente las características que queremos estudiar en los sistemas (ej. la distribución de la información de un origen, la confiabilidad de un canal, la relación entre el origen y el destino de la información entre otras) Las probabilidades están basadas en las frecuencias observables de la ocurrencia de eventos
6 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades Si repetimos un experimento N veces que tiene M diferentes resultados posibles y contamos el numero de veces que se observan las diferentes posibilidades n, n 2,..., n M entonces podemos determinar la frecuencia de estas observaciones (f, f 2,..., f M ) al dividir n, n 2,..., n M por N. Si N estas frecuencias son la probabilidad (p, p 2,..., p M ) de ocurrencia del evento y sus valores posibles son entre 0 y. El siguiente es el caso de tener los eventos A, B, AB (A y B, ambos eventos ocurriendo), A B (ninguno de los dos). A B A AB B
7 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Permutaciones: Las permutaciones son el reordenamiento de objetos o símbolos en secuencias distinguibles: El numero de permutaciones de n objetos es n! n(n-)(n-2) ! = La formula para el numero de permutaciones de r objetos seleccionados de un conjunto de n objetos: P n,r = n! n r! Cada uno de los objetos es distinguible de los otros
8 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si tengo 6 tarros de pintura de color y una flota de 4 autos (Ferrari, Jaguar, Corvette, Citroen), el numero de permutación posibles para pintar los autos es o usando la formula: P n,r = P 6, 4 = 6! 6 4! =360 Si alguien eligiera una permutación de colores para su flota al azar la probabilidad de ella seria = /360
9 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) En otras situaciones no nos importa la posición de selección de los objetos en cuestión. En ese caso se quieren determinar el numero de las combinaciones de elegir r objetos de un set de n objetos: Estas cantidades se llaman coeficientes binomiales porque fueron estudiados en relación con la expansion de binomiales en los cuales las maneras de seleccionar el numero de las variables es dado por la relación descrita anteriormente (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a + b) 3 = C n, r = n r 3 0 a3 3 a2b 3 2 ab2 3 3 b3 n n n 2... n r = = r! n! n r! r!
10 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si alguien compra 3 tipos de quesos del supermercado de 2 posibles tipos Cual es el numero de combinaciones de compra? No nos importa el orden en que los compramos (e.g. {Gruyere, Suizo, Cabra} se considera la misma combinación que {Suizo, Gruyere, Cabra}) C 2,3 = 2 3 = 2! 9! 3! =220 Si nos importara el orden el resultado seria una permutacion: P(2,3) = 2 0 = 320
11 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Probabilidad condicional Muchas veces es importante saber la probabilidad de un evento (A) basado en información previa sobre otro evento o variable, este otro evento o variable determina el espacio de muestreo (S) que se esta usando y por ende el valor de la probabilidad La probabilidad de A dado S se escribe: P(A S}
12 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si se observan el siguiente numero de eventos: A ocurre, B no ocurre (AB ): n B ocurre, A no ocurre (BA ): n 2 A y B ocurren (AB): n 3 Ni A ni B ocurren (A B ): n 4 A o B o ambos ocurren (A + B): n + n 2 + n 3 El total de los eventos son N: N = n + n 2 + n 3 + n 4 Las frecuencias son: f {A} = (n + n 3 )/N, f {B} = (n 2 + n 3 )/N, f {AB} = n 3 /N, f {A+B} = (n + n 2 + n 3 )/N = f {A} + f {B} f {AB}, La frecuencia que A ocurre si sabemos que B ya ocurrió f {A B} = n 3 /(n 2 + n 3 ), La frecuencia que B ocurre si sabemos que A ya ocurrió f {B A} = n 3 /(n + n 3 ), A B A AB AB B BA
13 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Cuando N tiende a estas frecuencias tienden a probabilidades: P{A+B} = P{A B} = P{A} + P{B} - P{AB} P{A} + P{B} P{AB} = P{A B} = P{A} P{B A} P{AB} = P{A B} = P{B} P{A B} P{A B} = P{AB}/P{B}, P{B} 0 P{B A} = P{AB}/P{A}, P{A} 0 Para eventos A y A (inversos) P{A+A }= P{AA } = 0
14 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Se saca una carta de un mazo de cartas: A = Sale una carta roja, B = sale un rey, AB = sale un rey rojo, A + B = sale un rey o sale una carta roja Prob{A} = /2, Prob{B} = /3, Prob{AB} = (/3)(/2)= /26 Prob{A + B} = Prob{A} + Prob{B} Prob{AB} = /2 +/3 /26 = 7/3
15 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si estamos tirando dos dados y tenemos los siguientes eventos: A = Dado sale 3, B = dado 2 sale, C = la suma de ambos da 8. Probs. apriori (antes de tener mas datos): P{A} = P{B} = /6, P{C} = 5/36 Probs. conjuntas: P{A Β} = /36, P{A C} = /36, P{B C} = 0/36 Probs. condicional: P{C Β} = 0, P{C A} = / 6, P{B A } = P{B} dado que A y B son independientes.
16 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si el evento A y B son independientes P{A B} = P{A} P{B A} = P{B} P{A+B} = P{A B} = P{A} + P{B} P{AB} = P{A B} = P{A} P{B} A B A AB B BA
17 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Se tiran dos dados, uno rojo y uno blanco: A = Dado rojo sale uno, B = Dado blanco sale seis AB = dado rojo sale uno y dado blanco sale seis A + B = dado rojo sale uno o dado blanco sale seis Prob{A} = P{A B} = /6, Prob{B} = P{B A} = /6, Prob{AB} = (/6)(/6)= /36 Prob(A + B) = /6 + /6 = /3
18 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si el evento A y B son excluyentes: P{AB} = { } Ejemplo: Se tira un dado: A = el dado sale, B = el dado sale 2 AB = el dado sale y el dado sale 2 A+B = el dado sale o el dado sale 2 Prob{A} = /6, Prob{B} = /6, Prob{AB} = { } Prob{A+B} = /6 + /6 = /3
19 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Función Discreta de Probabilidad (PDF) y Función Cumulativa de Probabilidad (CDF) Si se tiene un experimento aleatorio y los resultados se pueden poner en correspondencia con un numero de enteros positivos entonces ese numero de enteros se denomina un espacio de muestreo discreto. En un espacio discreto de muestreo, cuando la variable aleatoria X asume valores {x, x 2, x 3,...,x k } la función discreta de probabilidad f(x) se define como: {p,p 2, p 3,...,p k } en el cual f(x k ) = Prob{X = x k } = x k La función cumulativa de probabilidad se define como: F x = x j x f x j
20 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Función Discreta de Probabilidad (PDF) y Función Cumulativa de Probabilidad (CDF) (cont) Ejemplo: Se tira una moneda repetidamente hasta que sale una cara X = La moneda sala cara por primera vez en el tiro k X = {, 2, 3,...,k} PDF: f = {/2, /4, /8,..., 2 -k } CDF: F(x) = x.5 f(x) F(x) x x
21 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables En la mayoría de los problemas en ingeniería es importante saber la distribución entre multiples variables aleatorias. Esto puede ser para por ejemplo saber el comportamiento de un sistema con inputs (X) y outputs (Y). Para estudiar esto se formaliza la idea de una distribución discreta multivariable. Si se tienen dos variables aleatorias X e Y entonces la PDF y CDF se definen de esta forma: PDF: f(x, y) = Prob{X = x, Y= y} CDF: F x, y = x j x y k y f x j, y k Se denominan probabilidades marginales cuando solo se considera solo una de las dos variables sin consideración por la otra.
22 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Distribución (probabilidad) marginal La distribución marginal de una matrix (n x m) de probabilidades se calculan según: P( X = i) = Σ j (p ij ) = p i + p i p in, P( Y = j) = Σ i (p ij ) = p j + p 2j p mj Y= Ejemplo: P( X = ) = p +p 2 +p 3 +p 4 = 4/6 = /4 P( Y = 2) = p 2 +p 22 +p 32 +p 42 = 5/6 [ X= ] 4/6 4/6 4/6 4/6 3/6 5/6 5/6 3/6
23 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Ejemplo: Un sistema con input (X) y output (Y). Cual es la Prob{ 3 X 5, 2 Y 3 } y las probabilidades marginales de X e Y? Probabilidad de cada punto en la muestra: P{X=i, Y=j} = /36 P{ 3 X 5, 2 Y 3 } = 6/36 = /6 Probabilidades marginales: P{ 3 X 5} = 8/36 = /2 P{ 2 Y 3} = 2/36 = /3 X e Y son independientes, ya que todos los valores del arreglo /36 = (/6)(/6) X= Y= [ /6 /6 /6 /6 /6 /6 ] /6 36 /6 36 /6 36 / /6 36 /6
24 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Si se quieren comparar fuentes y canales de datos, se pueden usar medidas de las diferencias entre ellos Estas medidas nos pueden dar un reflejo del tipo de fuente y del tipo de canal que se esta estudiando X Sistema de comunicaciones Y
25 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Ejemplo: Binary Symmetric Channel (BSC), un modelo de un canal simple pero que incluye gran parte de la complejidad del problema de comunicaciones en general. Nos interesa P{Y X}, mas específicamente: P{0 0} = P{ } = p, P{ 0} = P{0 } = q X 0 q p Y 0 q p
26 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Ejemplo: Binary Erasure Channel (BEC) Para el BEC P{0 0} = P{ } = p, P{z 0} = P{z } = q X Y p 0 0 q q z p
27 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Probabilidades Condicionales Considere una matrix de probabilidades para dos variables aleatorias X, Y representando un transmisor y un receptor: Como se calcula la probabilidad de X dado Y: P( X Y } o Y dado X: P( Y X }? P{ X = i Y = j ) = p(x i y j ) = p(x i, y j ) / Σ i (p ij ) Y= P{ Y = j X = i )= p(y j x i ) = p(x i, y j ) / Σ j (p ij ) Ejemplo: X= P( X = Y = 2) = p(x, y 2 ) / Σ i (p i2 ) = (/6) / (5/6) = /5 P( Y = 3 X = 3) = p(x 3, y 3 ) / Σ j (p 3j ) = (2/6) / (4/6) = /2 [ ] 4/6 4/6 4/6 4/6 3/6 5/6 5/6 3/6
28 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.
29 Aplicaciones: log n v/s Entropía La entropía H(X) H(X) es una medida de la incertidumbre o de la información promedio que nos provee una variable aleatoria (o grupo de variables aleatorias) La selección de un evento de dos posibles eventos de igual probabilidad requiere bit de información La selección de un evento de cuatro posibles eventos de igual probabilidad requiere 2 bits de información...etc...
30 Aplicaciones: log n v/s Entropía La entropia H(X) (cont) Si tenemos un espacio de muestreo dividido en 2 N eventos que son igualmente probables E k (k =, 2,..., 2 N ) entonces la información (en bits) proveida por el evento E k es: I(E k ) = log(p k ) = log 2 N = N
31 Aplicaciones: log n v/s Entropía La entropia H(X) (cont) La información promedio dada por una variable aleatoria X que representa un sistema finito de probabilidades entonces n es: H(X) cumple con varios requisitos: Continuidad Simetría Extrema: cuando todos los eventos son equiprobables H(X) tiene que ser máximo, cuando uno es el unico probable H(X) tiene que ser mínimo Aditiva H(X) = I(E k ) = k = p k log 2 (p k )
32 Aplicaciones: n v/s log n La entropia H(X): porque nlogn como medida? Si se tiene un sistema con por ejemplo n diferentes opciones de transmisión Y si se quiere tener una medida basada en esas opciones para poder diferenciar un sistema de otro o para diseñar sistemas en el cuales el origen, el canal y el destino estuvieran bien dimensionados. Podría usarse por ejemplo el numero de estados n como medida de las opciones disponibles?
33 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico Ejemplo: Un sistema de comunicaciones Morse en el cual se pueden mandar tres diferentes combinaciones de claves. En nuestro ejemplo cada una de las tres claves tiene dos posibles estados (raya y punto).
34 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico Ejemplo (cont): Asumiendo que todos los estados son equiprobables las probabilidades son: P{cl=raya} = P{cl=punto} = P{cl2=raya} = P{cl2=punto} = P{cl3=raya} = P{cl3=punto} = ½ En nuestro ejemplo el sistema visto como conjunto tiene ocho posibles estados (raya-raya-raya, raya-raya-punto,, puntopunto-punto, 2 3 =8) pero las tres claves como componentes del sistema nos da seis posibles estados (2+2+2=6).
35 Aplicaciones: n v/s log n Clave 3 Clave 2 Clave Estado
36 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico El numero de estados (n) para el sistema es m s = 8, para cada clave m c =m c2 =m c3 = 2 Una cualidad deseable en cualquier medida es que se puedan sumar los estados de los componentes del sistema y que esta suma sea igual a los estados del sistema completo m c + m c2 + m c3 = m s Pero Entonces simplemente usar n no funciona Qué hacer? Afortunadamente una manera de transformar productos de números a sumas es usando el logaritmo.
37 Aplicaciones: n v/s log n La entropia H(X): log n, otra posible medida de sistema probabilistico log 2 n tiene la capacidad requerida de nuestra medida ya que: log 2 (2) + log 2 (2) + log 2 (2) = log 2 (8) Entonces usando nuestra nueva medida m = log 2 (n) Para el sistema entero log 2 (n s ) = log 2 (8) y para cada clave log 2 (n c )= log 2 ( n c2 ) = log 2 ( n c3 ) = log 2 (2) Esta nueva medida si tiene esta cualidad deseada (propiedad aditiva) m c + m c2 + m c3 = m s Típicamente se usa la base 2 para el logaritmo especialmente en sistemas binarios. En este caso la unidad de información de sistemas binarios se llama bit que es una contracción de binary unit.
38 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas En sistemas en los cuales las probabilidades de los componentes transmitidos en mensajes no son equiprobables, entonces es necesario ampliar nuestra medida (log 2 (n)). Esta medida se llama entropía se usa el símbolo H para designarla.
39 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas No se pueden sumar las contribuciones de los diferentes componentes de manera igual ya que en sistemas reales los componentes de los mensajes tienen diferentes frecuencias y probabilidades. Incluir esas probabilidades es esencial para que nuestra medida mida las contribuciones de las diferentes opciones en nuestro mensajes de manera mas realista.
40 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Ejemplo: Sistema morse Si {P(raya) =. y P(punto) =.9} se puede decir que la información promedio contribuida por una raya es P raya log(p raya ) y la información promedio contribuida por un punto es P punto log(p punto ).
41 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Asumiendo que X = {raya, punto}, P(raya)=., P(punto)=.9, x es una variable aleatoria del espacio X, N es la cantidad de opciones igual a 2 (raya o punto). H(X) deberia tender a 0 cuando P(x n ) tiende a cero o a ya que eso indica certeza en el mensaje y al haber certeza no hay incertidumbre (una pista: -P(x n )logp(x n ) tiende a cero cuando P(x n ) es cero o uno). El valor máximo de H(X) es cuando P(x n ) = /N = ½ indicando mayor incertidumbre en el mensaje y más información transmitida sobre el sistema (propiedad extrema).
42 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Si el numero de posibles resultados equiprobables se incrementa entonces la entropía también se incrementa. También nos interesa que esta función H(X) tenga simetría con respecto a la probabilidades de izquierda a derecha H(X) debiera ser concava hacia abajo (limitada) y continua Para que cumpla con estos requerimientos, la entropía se define de la siguiente forma: H(X) = i pi log(pi )
43 Aplicaciones: log n v/s Entropía Medidas Valores log(p) -log(p) -Plog(P) Probabilidad P
44 Aplicaciones: log n v/s Entropía Medidas Valores Plog(P) Probabilidad P
45 Aplicaciones: log n v/s Entropía Medidas Valores P2log(P2) Probabilidad P
46 Aplicaciones: log n v/s Entropía Medidas.2 Valores H(x) H(x)=-Plog(P)-P2log(P2) Probabilidad P (P2 = - P)
47 Aplicaciones: Entropía Ejemplos H(X): Si P(raya) =., P(punto) =.9: H(X) = -(.log log 2.9) = bits Si P(raya) =.9, P(punto) = 0.: H(X) = -(.9log log 2.) = bits {simetría} Si P(raya) =.5 y P(punto)=.5: H(X) = -(.5log log 2.5) =.0 bits {P=(/N) H(x) Máx } Si P(raya) =0 y P(punto)=: H(x) = -(0log log 2 ) = 0 bits {P=() H(x) Min =0}
48 Aplicaciones: Entropía Conclusion: Que es la entropía? La entropía H(X) mide la información o incertidumbre promedio de una variable aleatoria X (o sistema representado por X).
49 Aplicaciones: Entropía Entropías a considerar en un sistema Igual que cuando se estudio las probabilidades en el caso de tener dos variables aleatorias (Ej: transmisor X y receptor Y) se consideran las siguientes entropías para medir relaciones entre las variables: H(X) : Información o entropia por carácter en el transmisor (en bits) H(Y) : Información o entropia por carácter en el receptor (en bits) H(X,Y) : Información o entropia por par de caracteres transmitidos y recibidos (en bits) H(Y X) : Información o entropia condicional sobre el receptor Y sabiendo que X = i fue transmitido (en bits) H(X Y) : Información o entropia condicional sobre el transmisor sabiendo que Y = j fue recibido, también conocido como equivocación (en bits)
50 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema p(x=)=0.25, p(x=2)=0.4, p(x=3)=0.5, p(x=4)=0.5, p(x=5)=0.05 p(y=)=0.35, p(y=2)=0.35, p(y=3)=0.20, p(y=4)=0. Y= p( x y ) = p(x, y ) / Σ i (p i ) =0.25/0.35 =.74 [ ] 2 p( y x ) = 0.25/0.25 = X= p( y 2 x 3 ) = 0.05/0.5 = H X = i j p x, y log p X =i = i p X =i log p X =i H(X) = log log log log log log log log 0.05 = bits Equivalentemente: H(X) = log log log log log 0.05 = bits
51 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema H Y = i j H(Y) = log log log log log log log log 0. =.856 bits X= Equivalentemente: H(Y) = log log log log 0. =.856 bits H X, Y = i p x, y log p Y = j = j j p x, y log p x, y H(X, Y) = log log log log log log log log 0.5 = bits p Y = j log p Y = j [ 0.25 Y= ]
52 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) H X Y = i j H(X Y) = -p(x,y ) log p(x y ) - p(x 2,y ) log p(x 2 y ) - p(x 2,y 2 ) log p(x 2 y 2 ) - p(x 3,y 2 ) log p(x 3 y 2 ) - p(x 4,y 3 ) log p(x 4 y 3 ) - p(x 4,y 4 ) log p(x 4 y 4 ) - p(x 5,y 3 ) log p(x 5 y 3 ) - p(x 5,y 4 ) log p(x 5 y 4 ) = bits p X =i,y = j log p x y = j p Y = j H X Y = j Equivalentemente: H(X Y) = 0.35 H(0.25/0.35, 0./0.35) H(0.3/0.35, 0.05/0.35) H(0./0.2, 0.05/0.2, 0.05/0.2) + 0. H(0./0.) = bits [ X= Y= ]
53 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) H Y X = i j H(Y X) = - p(y,x ) log p(y x ) - p(y,x 2 ) log p(y x 2 ) p(y 2,x 2 ) log p(y 2 x 2 ) - p(y 2,x 3 ) log p(y 2 x 3 ) - p(y 3,x 3 ) log p(y 3 x 3 ) - f(y 3,x 4 ) log p(y 3 x 4 ) - f(y 3,x 4 ) log p(y 3 x 4 ) - p(y 3,x 5 ) log p(y 3 x 5 ) = 0.6 bits p X =i,y = j log p y x = i p X =i H Y X =i Equivalentemente: H(Y X) = 0.25 H(0.25/0.25) H(0./0.4,0.3/0.4) H(0.05/0.5, 0./0.5) H(0.05/0.5, 0./0.5) H(0.05/0.05) X= = 0.6 bits [ Y= ]
54 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) Hay que notar que H(x,y) < H(X) + H(Y) < y que: H(X,Y) = H(Y) + H(X Y) = H(X) + H(Y X) = = H(X, Y) H(X, Y) H(X) H(Y X) H(X Y) H(Y)
55 Aplicaciones: Entropía Información Mutua La información mutua I(X;Y) es una medida de la información proveida por los pares de símbolos (x,y), la relación entre I(X;Y) y la entropia es: H(X,Y) = H(X) + H(Y X) = H(Y) + H(X Y) H(X,Y) = H(X) + H(Y) - I(X;Y) I(X;Y) = H(X) H(X Y) I(X;Y) = H(Y) H(Y X) I(X;Y) mide la dependencia entre el input X y el output Y, o la información transmitida por el canal, es positiva y simétrica en X y Y. H(X, Y) H(X) H(Y) H(X Y) I(X;Y) H(Y X)
56 Aplicaciones: Entropía Información Mutua La capacidad de un canal definida por Shannon es C = max I(X;Y), max I(X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es zero o cuando la incertidumbre de recibir Y dado X es zero: Si I(X;Y) = H(X) H(X Y), cuando H(X Y) = 0 max I(X;Y) = C Si I(X;Y) = H(Y) H(Y X), cuando H(Y X) = 0 max I(X;Y) = C H(Y X) maxima H(X, Y) H(Y X) grande H(X, Y) H(Y X) chica H(Y X) = 0 H(X, Y) H(X, Y) H(X) H(Y X) = H(Y) I(X;Y)=0 I(X;Y) I(X;Y) H(X) = H(Y) = H(X, Y) = I(X;Y)
57 Aplicaciones: Entropía Información Mutua (cont) Para un canal libre de ruido (canal perfecto): p( x y ) = 0.25/0.25 =, p( x 2 y 2 ) = 0.25/0.25 = p( x 3 y 3 ) = 0.25/0.25 =, p( x 4 y 4 ) = 0.25/0.25 = X= Y= [ ] p( y x ) = 0.25/0.25 =, p( y 2 x 2 ) = 0.25/0.25 = p( y 3 x 3 ) = 0.25/0.25 =, p( y 4 x 4 ) = 0.25/0.25 = todos los otros f(x y) y f(y x) son zero H X,Y = x y p x, y log p x, y H(X, Y) = 0.25 log log log log 0.25 = 2 bits
58 Aplicaciones: Entropía Información Mutua (cont) H(X) = 0.25 log log log log 0.25 = 2 bits H(Y) = 0.25 log log log log 0.25 = 2 bits X= Y= [ ] H(Y X) = log 0.25log -0.25log -0.25log = 0 similarmente H(X Y) = 0 Para este canal libre de ruido : I(X;Y) = H(X) = H(Y) = H(X,Y) = 2 bits
59 Aplicaciones: Entropía Información Mutua (cont) Para un canal con inputs y output independientes: H(Y X) = H(Y) (maxima) H(X, Y) H(X) = H (X Y) H(Y X) = H(Y) I(X;Y)=0 X= 2 H(X) = H(X Y) =, H(Y) = H(Y X) =, H(X,Y) = 2 I(X;Y)= H(X) H(X Y) = = 0 bits = H(Y) H(Y X) = = 0 bits Para un canal libre de ruido (canal perfecto): X= H(Y X) = 0 2 H(X, Y) H(X) =, H(Y) =, H(X,Y) =, H(X Y) = 0, H(X Y) = 0 Y= 2 [ ] Y= 2 [ ] I(X;Y)= H(X) H(X Y) = 0 = bit H(X) = H(Y) = H(X, Y)=I(X;Y) = H(Y) H(Y X) = 0 = bit
60 Aplicaciones: Entropía Relativa Que es la entropía relativa? La entropía relativa es una medida de la distancia o divergencia entre dos funciones de probabilidad p(x) y q(x). También es conocida como distancia Kullback Leibler (KL y KL2). La medida Jensen/Jeffreys (simétrica) es la suma de KL y KL2 : J = KL + KL2. Hay muchas otras medidas de divergencia aparte de KL, KL2 y J. KL = KL2 = D(p q) = D(p q) = i i p log(p i i / qi ) q i log(qi / pi )
61 Aplicaciones: Entropía Relativa Ejemplos de H(x), KL, KL2 y J: Hay dos dados (los dos están arreglados!) y por consecuencia dos variables aleatoria X e Y con los siguientes valores y probabilidades. Posibles eventos : X = [, 2, 3, 4, 5, 6], Y = [, 2, 3, 4, 5, 6] Ejemplo : Funciones de probabilidades discreta: f(x) = {p x, p x2, p x3, p x4, p x5, p x6 } = {/3,/3,/2,/2,/2,/2}, f(y) = {p y, p y2, p y3, p y4, p y5, p y6 } = {/2,/2,/6,/6,/6,/3} 4/2 4/2 f(x) 3/2 2/2 f(y) 3/2 2/2 /2 / X Y
62 Aplicaciones: Entropía Relativa Ejemplo de H(x), KL, KL2 y JS (cont): H(X) = -(/3log 2 /3+/3log 2 /3+...+/2log 2 /2) = H(Y) = -(/2log 2 /2+/6log 2 /6+...+/3log 2 /3) = KL = D(X Y) = KL2 = D(X Y) =.333 J = KL + KL2 = Ejemplo 2: f(x) = {/2,/2,/6,/6,/6,/3} f(y) = {/3,/3,/2,/2,/2,/2}, KL = D(X Y) =.333 KL2 = D(X Y) = J = KL + KL2 = KL y KL2 no son simétricas pero J si lo es.
63 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.
64 Aplicaciones: Aplicaciones Comunicaciones La T.I. es muy importante en el continuo desarrollo de las comunicaciones. Un canal de comunicaciones es un sistema en el cual el output (M ) depende probabilisticamente del input (M). La entropía H(x) mide la incertidumbre de una variable aleatoria (X). Para medir la incertidumbre de un canal de comunicaciones se usa una medida llamada la información mutual I(X;Y) = H (X) H(X Y).
65 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Comunicación Origen Codificador Canal Decodificador Destino Mensaje M Mensaje M
66 Aplicaciones: Aplicaciones Comunicaciones I(X;Y) mide la dependencia entre el input X y el output Y es positiva y simétrica en X y Y. La capacidad de un canal es C=max I(X;Y); max I(X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es zero : H(X Y) = 0 C=max I(X;Y).
67 Aplicaciones: Aplicaciones Comunicaciones Claude Shannon demostró que la información puede ser transmitida con fiabilidad hasta el ritmo permitido por la capacidad del canal C. Esta fiabilidad era independiente del ritmo de la transmisión siempre que fuera menor que C. El teorema de codificación de canales de Shannon prometió la existencia de códigos que permitirían la transmisión de información a velocidades mas rapidas. Algunos codigos que usaron estas ideas son los codigos de Hamming y Reed-Solomon.
68 Aplicaciones: Aplicaciones Criptografía La teoría de la información también es usada en otras áreas como la encriptación. Usando M como el mensaje, C como el cypher texto, K como la llave para la encriptación. La situación corresponde al sistema de comunicaciones pero con agregando seguridad a la informacion transmitida.
69 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Encriptación K Generador de llaves K Origen Encriptor Canal Decriptor Destino Interceptor Mensaje M Mensaje M (e, K, C) C=e(M,K)
70 Aplicaciones: Aplicaciones Criptografía Shannon describió la equivocación de la llave H(K C) el cual mide la incertidumbre promedio de una llave K cuado un criptograma C ha sido interceptado. Conceptos de la teoría de la información han sido usado en procesos y algoritmos como PGP, RSA, DES y otros. Gracias a estos algoritmos existe el internet como se conoce hoy.
71 Aplicaciones: Aplicaciones Bioinformática Los conceptos de divergencia (Kullback Leibler) entre distribuciones ha sido usado en la Bioinformática para la detección de patrones en secuencias de ADN. Estas secuencias son un patrón estocástico que puede ser considerado como un generador ergodico de caracteres. Los caracteres usados en el ADN son el A, T, C, y G. Usando métodos basados en la Teoría de la Información es posible mejorar el análisis de codones (tripletes de ADN que generan proteínas), motifs (grupos de caracteres que tienen una significancia biológica) y otros relieves de interés.
72 Aplicaciones: Aplicaciones Ejemplo: Usando la diferencia en sus estadísticas se han creado medidas para medir la divergencia entre de codones y nocodones. Usando un indicador (pointer) se calculan las frecuencias de los doce diferentes nucleótidos (A0, T0, C0, G0, A, T, C, G, A2, T2, C2, G2) a la izquierda y derecha del indicador Se usan las doce frecuencias a la izquierda como p: (fia0,...fig2) y las otras doce como q: (fda0,...,fdg2) Se usan diferentes medidas (KL, KL2,...) para calcular D(p q) y detectar codones y no codones. Hay muchas (mas de treinta) diferentes medidas que pueden ser usadas con estos propósitos.
73 Aplicaciones: Aplicaciones Bioinformatica Medida Kullback Leibler (KL) y KL2 KL,2 = I,2 = P log(p / p2) KL2, = I2, = P2 log(p2 / p) Medida Jensen Jeffreys (J) J = KL + KL,2 2,
74 Aplicaciones: Aplicaciones Bioinformatica Medida Kullback Leibler para detectar codones () human ; (2) ecoli; (3) jannaschii; and (4) rprowazekii) I II III I II III 0.06 () 0.06 (2) KL KL (3) 0.3 (4) KL KL Pointer position Pointer position
75 Aplicaciones: Conclusión En general estas medidas y la Teoría de la Información pueden ser usadas para detectar patrones estadísticos en muchos tipos de secuencias, imagenes u otras formas de información. La Teoría de la Información nos da una base teórica para la investigación de muchas áreas diferentes aparentemente no relacionadas.
76 Aplicaciones Referencias: [] Reza, F., An Introduction to Information Theory, Dover Publications, 994 [2] Cover, T., Elements of Information Theory, Wiley, 99 [3] Galvan, P.B. et al, Finding Borders between Coding and Noncoding DNA Regions by an Entropic Segmentation Method, Physical Review Letters, 85 (2000) [4] en.wikipedia.org
Introducción a la Teoría de Probabilidad
Capítulo 1 Introducción a la Teoría de Probabilidad Para la mayoría de la gente, probabilidad es un término vago utilizado en el lenguaje cotidiano para indicar la posibilidad de ocurrencia de un evento
Más detallesTEMA 2: Representación de la Información en las computadoras
TEMA 2: Representación de la Información en las computadoras Introducción Una computadora es una máquina que procesa información y ejecuta programas. Para que la computadora ejecute un programa, es necesario
Más detallesTema 3: Variables aleatorias y vectores aleatorios bidimensionales
Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos
Más detallesMódulo 9 Sistema matemático y operaciones binarias
Módulo 9 Sistema matemático y operaciones binarias OBJETIVO: Identificar los conjuntos de números naturales, enteros, racionales e irracionales; resolver una operación binaria, representar un número racional
Más detallesUnidad Didáctica. Códigos Binarios
Unidad Didáctica Códigos Binarios Programa de Formación Abierta y Flexible Obra colectiva de FONDO FORMACION Coordinación Diseño y maquetación Servicio de Producción Didáctica de FONDO FORMACION (Dirección
Más detallesUnidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte)
Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte) Unidad de trabajo 2: INFORMÁTICA BÁSICA... 1 1. Representación interna de datos.... 1 1.2. Sistemas de numeración.... 2 1.3. Aritmética binaria...
Más detalles1.4 Cálculo de Probabilidades con Métodos de Conteo. Considerere un espacio muestral finito,
1 1.4 Cálculo de Probabilidades con Métodos de Conteo Considerere un espacio muestral finito, y defina, Luego, Ω = {ω 1,..., ω n }, P ({ω i }) = p i, i = 1,..., n P (A) = ω i A p i, A Ω Ω se dice equiprobable
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 2
PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 1. Se eligen tres autos al azar y cada uno es clasificado N si tiene motor naftero o D si tiene motor diesel (por ejemplo, un resultado posible sería NND). a)
Más detallesCRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA
CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA Para generar una transmisión segura de datos, debemos contar con un canal que sea seguro, esto es debemos emplear técnicas de forma que los datos que se envían de una
Más detallesTeoría de Probabilidad
Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para las que no existe
Más detallesCapítulo 7: Distribuciones muestrales
Capítulo 7: Distribuciones muestrales Recordemos: Parámetro es una medida de resumen numérica que se calcularía usando todas las unidades de la población. Es un número fijo. Generalmente no lo conocemos.
Más detallesClase 4: Probabilidades de un evento
Clase 4: Probabilidades de un evento Definiciones A continuación vamos a considerar sólo aquellos experimentos para los que el EM contiene un número finito de elementos. La probabilidad de la ocurrencia
Más detallesESTIMACIÓN. puntual y por intervalo
ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio
Más detallesANÁLISIS DE DATOS NO NUMERICOS
ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas
Más detallesPROBABILIDADES Y ESTADÍSTICA (C) Práctica 2
7 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 1. Se eligen tres autos al azar y cada uno es clasificado N si tiene motor naftero o D si tiene motor diesel (por ejemplo, un resultado posible sería N N D).
Más detalles2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24
2. Probabilidad Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 Contenidos 1 Experimentos aleatorios 2 Algebra de sucesos 3 Espacios
Más detallesExplicación de la tarea 3 Felipe Guerra
Explicación de la tarea 3 Felipe Guerra 1. Una ruleta legal tiene los números del 1 al 15. Este problema corresponde a una variable aleatoria discreta. La lectura de la semana menciona lo siguiente: La
Más detallesby Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true
by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true I. FUNDAMENTOS 3. Representación de la información Introducción a la Informática Curso de Acceso a la Universidad
Más detallesETS Caminos Santander. Curso 2012. Ejercicios de introducción a la programación.
Ejercicio 1. Saludo. El programa preguntará el nombre al usuario y a continuación le saludará de la siguiente forma "Hola, NOMBRE" donde NOMBRE es el nombre del usuario. Ejercicio 2. Suma. El programa
Más detallesAula Banca Privada. La importancia de la diversificación
Aula Banca Privada La importancia de la diversificación La importancia de la diversificación La diversificación de carteras es el principio básico de la operativa en mercados financieros, según el cual
Más detallesMedias Móviles: Señales para invertir en la Bolsa
www.gacetafinanciera.com Medias Móviles: Señales para invertir en la Bolsa Juan P López..www.futuros.com Las medias móviles continúan siendo una herramienta básica en lo que se refiere a determinar tendencias
Más detallesUnidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)
Unidad I Sistemas numéricos 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal) Los computadores manipulan y almacenan los datos usando interruptores electrónicos que están ENCENDIDOS o APAGADOS.
Más detallesSemana 13: Encriptación. Cifrado simétrico
Semana 13: Encriptación Cifrado simétrico Aprendizajes esperados Contenidos: Características y principios del cifrado simétrico Algoritmos de cifrado simétrico Encriptación Simétrica En la encriptación
Más detallesUnidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7
Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7 Definiciones: 1- La probabilidad estudia la verosimilitud de que determinados sucesos o eventos ocurran o no, con respecto a otros sucesos o eventos
Más detallesLección 22: Probabilidad (definición clásica)
LECCIÓN 22 Lección 22: Probabilidad (definición clásica) Empezaremos esta lección haciendo un breve resumen de la lección 2 del libro de primer grado. Los fenómenos determinísticos son aquellos en los
Más detallesLecturas previas Cuando llegue a su primera sesión de laboratorio debe haber estudiado el contenido de la lectura que aparece a continuación.
Laboratorio 1 Medición e incertidumbre La descripción de los fenómenos naturales comienza con la observación; el siguiente paso consiste en asignar a cada cantidad observada un número, es decir en medir
Más detallesQUIERES COMPROBAR CÓMO LAS REDES DETECTAN Y CORRIGEN ERRORES?
QUIERES COMPROBAR CÓMO LAS REDES DETECTAN Y CORRIGEN ERRORES? AUTORÍA MARÍA CATALÁ CARBONERO TEMÁTICA DETECCIÓN Y CORRECCIÓN DE ERRORES ETAPA CICLO MEDIO Y SUPERIOR DE INFORMÁTICA Resumen Hoy en día las
Más detallesIntroducción. Algoritmos
Introducción La firma digital es una herramienta que permite garantizar la autoría e integridad de los documentos digitales, posibilitando que éstos gocen de una característica que únicamente era propia
Más detalles1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0 1 0 0 0 0 1 1 0 1 1 0 0 0 1 1 1 1
5.1.3 Multiplicación de números enteros. El algoritmo de la multiplicación tal y como se realizaría manualmente con operandos positivos de cuatro bits es el siguiente: 1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0
Más detallesProbabilidades y Estadística (Computación) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J.
Generación de Números Aleatorios Números elegidos al azar son útiles en diversas aplicaciones, entre las cuáles podemos mencionar: Simulación o métodos de Monte Carlo: se simula un proceso natural en forma
Más detallesSISTEMAS DE NUMERACIÓN. Sistema decimal
SISTEMAS DE NUMERACIÓN Sistema decimal Desde antiguo el Hombre ha ideado sistemas para numerar objetos, algunos sistemas primitivos han llegado hasta nuestros días, tal es el caso de los "números romanos",
Más detallesEduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS
ANÁLISIS DE DATOS Hoy día vamos a hablar de algunas medidas de resumen de datos: cómo resumir cuando tenemos una serie de datos numéricos, generalmente en variables intervalares. Cuando nosotros tenemos
Más detallesUniversidad Diego Portales Facultad de Economía y Empresa
Suponga que, conversando con su cuate, surge la idea de hacer una apuesta simple. Cada uno escoge decir cara ó sello. Se lanza una moneda al aire, y si sale cara, quien dijo sello le paga a quien dijo
Más detallesManejo de la Información
Los juegos de azar Manejo de la Información Que las y los estudiantes deduzcan y argumenten que la probabilidad de que un evento suceda está relacionada con la frecuencia en que ocurre el resultado esperado
Más detallesClase 5: Variables Aleatorias y Distribuciones de Probabilidad
Clase 5: Variables Aleatorias y Distribuciones de Probabilidad Variables Aleatorias Una variable aleatoria es una función que asocia un número real con cada elemento del EM. Ejemplo 1: El EM que da una
Más detallesIngeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007
Enunciado Se desea efectuar el testing funcional de un programa que ejecuta transferencias entre cuentas bancarias. El programa recibe como parámetros la cuenta de origen, la de cuenta de destino y el
Más detallesTRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos
MODULACIÓN TRANSMISION DIGITAL La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda
Más detallesGeneración de Números Pseudo-Aleatorios
Números Aleatorios Son un ingrediente básico en la simulación de sistemas Los paquetes de simulación generan números aleatorios para simular eventos de tiempo u otras variables aleatorias Una secuencia
Más detallesÍndice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones
Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Leandro Marín Dpto. de Matemática Aplicada Universidad de Murcia 2012 1 Números 2 Polinomios 3 Funciones y su Representación
Más detallesColegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio
Refo 07 2004 15 al 19 de noviembre 2004 Colegio Alexander von Humboldt - Lima Tema: La enseñanza de la matemática está en un proceso de cambio La enseñanza de la matemática debe tener dos objetivos principales:
Más detallesCONSULTAS CON SQL. 3. Hacer clic sobre el botón Nuevo de la ventana de la base de datos. Aparecerá el siguiente cuadro de diálogo.
CONSULTAS CON SQL 1. Qué es SQL? Debido a la diversidad de lenguajes y de bases de datos existentes, la manera de comunicar entre unos y otras sería realmente complicada a gestionar de no ser por la existencia
Más detallesLas Relaciones Públicas en el Marketing social
Las Relaciones Públicas en el Marketing social El marketing social es el marketing que busca cambiar una idea, actitud o práctica en la sociedad en la que se encuentra, y que intenta satisfacer una necesidad
Más detallesAproximación local. Plano tangente. Derivadas parciales.
Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación
Más detallesSistemas de numeración
Sistemas de numeración Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. Los sistemas de numeración actuales son sistemas posicionales, que se caracterizan
Más detallesTema I. Sistemas Numéricos y Códigos Binarios
Tema I. Sistemas Numéricos y Códigos Binarios Números binarios. Aritmética binaria. Números en complemento-2. Códigos binarios (BCD, alfanuméricos, etc) Números binarios El bit. Representación de datos
Más detallesMERCADOS FINANCIEROS: LOS FONDOS DE INVERSIÓN II
MERCADOS FINANCIEROS: LOS FONDOS DE INVERSIÓN II 28 febrero de 2012 Javier Marchamalo Martínez Universidad Rey Juan Carlos SABER INTERPRETAR LOS RATIOS SIGNIFICATIVOS EN LA GESTIÓN POR BENCHMARK Ratio
Más detallesMATEMÁTICAS APLICADAS A LAS C.C. SOCIALES
MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES CAPÍTULO 7 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad
Más detallesEl azar y la probabilidad. Un enfoque elemental
El azar y la probabilidad. Un enfoque elemental Experimentos al azar El azar puede percibirse fácilmente cuando se repite muchas veces una acción cuyo resultado no conocemos, como tirar dados, repartir
Más detallesCovarianza y coeficiente de correlación
Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también
Más detallesSISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: 5 10 2 2 10 1 8 10 0 =528 8 10 3 2 10 2 4 10 1 5 10 0 9 10 1 7 10 2 =8245,97
SISTEMAS DE NUMERACIÓN Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. La norma principal en un sistema de numeración posicional es que un mismo símbolo
Más detalles8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...
Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación
Más detalles1.1. Introducción y conceptos básicos
Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................
Más detallesSÍNTESIS Y PERSPECTIVAS
SÍNTESIS Y PERSPECTIVAS Los invitamos a observar, a identificar problemas, pero al mismo tiempo a buscar oportunidades de mejoras en sus empresas. REVISIÓN DE CONCEPTOS. Esta es la última clase del curso.
Más detallesPROBABILIDAD Els problemes assenyalats amb un (*) se faran a classe de problemes.
PROBABILIDAD Els problemes assenyalats amb un (*) se faran a classe de problemes. 1.- (*) En una carrera en la que participan diez caballos de cuántas maneras diferentes se pueden dar los cuatro primeros
Más detallesDESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO
I. SISTEMAS NUMÉRICOS DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO LIC. LEYDY ROXANA ZEPEDA RUIZ SEPTIEMBRE DICIEMBRE 2011 Ocosingo, Chis. 1.1Sistemas numéricos. Los números son los mismos en todos
Más detallesCifras significativas e incertidumbre en las mediciones
Unidades de medición Cifras significativas e incertidumbre en las mediciones Todas las mediciones constan de una unidad que nos indica lo que fue medido y un número que indica cuántas de esas unidades
Más detallesDatos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina
Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: germanpaz_ar@hotmail.com =========0========= Introducción
Más detallesCurso Práctico de Bioestadística Con Herramientas De Excel
Curso Práctico de Bioestadística Con Herramientas De Excel Fabrizio Marcillo Morla MBA barcillo@gmail.com (593-9) 4194239 Fabrizio Marcillo Morla Guayaquil, 1966. BSc. Acuicultura. (ESPOL 1991). Magister
Más detallesLos servicios que presta Internet. RETO: Conocer y utilizar los servicios que nos ofrece Internet.
Ciclo V - Informática. Guía # 2 Los servicios que presta Internet RETO: Conocer y utilizar los servicios que nos ofrece Internet. Correo Electrónico. Chat. FTP. Foros. Mensajería. Protocolo. Breve introducción
Más detallesGUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES
GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES Tema: Cartas de Servicios Primera versión: 2008 Datos de contacto: Evaluación y Calidad. Gobierno de Navarra. evaluacionycalidad@navarra.es
Más detalles1. Simule estas situaciones y concluya: a) Se tira una moneda equilibrada 10 veces y se observa qué proporción de veces salió cara en
1. Simule estas situaciones y concluya: a) Se tira una moneda equilibrada 10 veces y se observa qué proporción de veces salió cara en las sucesivas tiradas, se repite el experimento en condiciones similares
Más detallesLa nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx
La nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx Resumen Se dan algunas definiciones básicas relacionadas con la divisibilidad
Más detallesValidation. Validación Psicométrica. Validation. Central Test. Central Test. Centraltest CENTRAL. L art de l évaluation. El arte de la evaluación
Validation Validación Psicométrica L art de l évaluation Validation Central Test Central Test Centraltest L art de l évaluation CENTRAL test.com El arte de la evaluación www.centraltest.com Propiedades
Más detallesPráctica 5. Curso 2014-2015
Prácticas de Seguridad Informática Práctica 5 Grado Ingeniería Informática Curso 2014-2015 Universidad de Zaragoza Escuela de Ingeniería y Arquitectura Departamento de Informática e Ingeniería de Sistemas
Más detallesUNIVERSIDAD AUTÓNOMA DE TAMAULIPAS UNIDAD ACADÉMICA MULTIDISCIPLINARIA REYNOSA-RODHE SIMULACIÓN DE SISTEMAS
UNIDAD MÉTODOS DE MONTECARLO II 2.1 Definición Los métodos de Montecarlo abarcan una colección de técnicas que permiten obtener soluciones de problemas matemáticos o físicos por medio de pruebas aleatorias
Más detallesUNIDAD 4 PROCESOS DE MARKOV
UNIDAD 4 PROCESOS DE MARKOV Anteriormente se han cubierto modelos estáticos, esto es, modelos cuyos parámetros permanecen sin cambio a través del tiempo. Con excepción de programación dinámica donde se
Más detallesTema 3 Probabilidades
Probabilidades 1 Introducción Tal vez estemos acostumbrados con algunas ideas de probabilidad, ya que esta forma parte de la cultura cotidiana. Con frecuencia escuchamos a personas que hacen afirmaciones
Más detallesNÚMEROS NATURALES Y NÚMEROS ENTEROS
NÚMEROS NATURALES Y NÚMEROS ENTEROS Los números naturales surgen como respuesta a la necesidad de nuestros antepasados de contar los elementos de un conjunto (por ejemplo los animales de un rebaño) y de
Más detallesMUESTREO TIPOS DE MUESTREO
MUESTREO En ocasiones en que no es posible o conveniente realizar un censo (analizar a todos los elementos de una población), se selecciona una muestra, entendiendo por tal una parte representativa de
Más detalles1. Dominio, simetría, puntos de corte y periodicidad
Estudio y representación de funciones 1. Dominio, simetría, puntos de corte y periodicidad 1.1. Dominio Al conjunto de valores de x para los cuales está definida la función se le denomina dominio. Se suele
Más detallesIndicaciones específicas para los análisis estadísticos.
Tutorial básico de PSPP: Vídeo 1: Describe la interfaz del programa, explicando en qué consiste la vista de datos y la vista de variables. Vídeo 2: Muestra cómo crear una base de datos, comenzando por
Más detalleshay alguien ahi? por Marcelino Alvarez maralvilla@gmail.com
hay alguien ahi? por Marcelino Alvarez maralvilla@gmail.com Un repaso a las estadísticas de lectura tanto de la página web como de la revista digital, para ver si alguien se acuerda de nosotros. Ya podemos
Más detalles342 SOBRE FORMAS TERNARIAS DE SEGUNDO GRADO.
342 SOBRE FORMAS TERNARIAS DE SEGUNDO GRADO. ALGUNAS APLICACIONES A LA TEORIA DE LAS FORMAS BINARIAS. Encontrar una forma cuya duplicación produce una forma dada del género principal. Puesto que los elementos
Más detallesCómo se sabe si una metodología científica es confiable y válida?
Cómo se sabe si una metodología científica es confiable y válida? POR: Tupak Ernesto Obando Rivera Ingeniero en Geología. Master y Doctorado en Geología, y Gestión Ambiental por la Universidad Internacional
Más detallesSISTEMAS NUMERICOS. Ing. Rudy Alberto Bravo
SISTEMAS NUMERICOS SISTEMAS NUMERICOS Si bien el sistema de numeración binario es el más importante de los sistemas digitales, hay otros que también lo son. El sistema decimal es importante porque se usa
Más detalles21/02/2012. Agenda. Unidad Central de Procesamiento (CPU)
Agenda 0 Tipos de datos 0 Sistemas numéricos 0 Conversión de bases 0 Números racionales o Decimales 0 Representación en signo-magnitud 0 Representación en complemento Unidad Central de Procesamiento (CPU)
Más detallesLa metodología operante se puede utiliza para probar problemas teóricos e hipótesis por medio de arreglos experimentales.
Skinner Skinner nació en 1904 en Susquehanna, Pennsylvania. Luego de fallar en sus intentos de ser escritor se cambió a la psicología, de lo cual sólo tenía una vaga idea. Obtuvo su doctorado en 1931.
Más detallesClases de apoyo de matemáticas Fracciones y decimales Escuela 765 Lago Puelo Provincia de Chubut
Clases de apoyo de matemáticas Fracciones y decimales Escuela 765 Lago Puelo Provincia de Chubut Este texto intenta ser un complemento de las clases de apoyo de matemáticas que se están realizando en la
Más detallesTema 11: Sistemas combinacionales
Tema 11: Sistemas combinacionales Objetivo: Introducción Generador Comprobador de paridad Comparadores Semisumador (HA) Sumador Completo (FA) Expansión de sumadores Sumador paralelo con arrastre serie
Más detallesUnidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal
Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal Artículo adaptado del artículo de Wikipedia Sistema Binario en su versión del 20 de marzo de 2014, por varios autores bajo la Licencia de Documentación
Más detallesMatemáticas para la Computación
Matemáticas para la Computación José Alfredo Jiménez Murillo 2da Edición Inicio Índice Capítulo 1. Sistemas numéricos. Capítulo 2. Métodos de conteo. Capítulo 3. Conjuntos. Capítulo 4. Lógica Matemática.
Más detallesESTRUCTURAS ALGEBRAICAS 1
ESTRUCTURAS ALGEBRAICAS Se da la relación entre dos conjuntos mediante el siguiente diagrama: (, ) (2, 3) (, 4) (, 2) (7, 8) (, ) (3, 3) (5, ) (6, ) (, 6)........ 5 6......... 2 5 i) Observa la correspondencia
Más detallesSoluciones de los ejercicios de Selectividad sobre Probabilidad de Matemáticas Aplicadas a las Ciencias Sociales II
Soluciones de los ejercicios de Selectividad sobre Probabilidad de ntonio Francisco Roldán López de Hierro * Convocatoria de 2007 Las siguientes páginas contienen las soluciones de los ejercicios propuestos
Más detallesCAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS
Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la
Más detallesHerramienta Solver. Activar Excel Solver
Herramienta Solver Introducción: Solver forma parte de una serie de comandos a veces denominados herramientas de análisis Y si. Con Solver, puede encontrar un valor óptimo (mínimo o máximo) para una fórmula
Más detallesUnidad 1. La información
Unidad 1. La información En esta unidad aprenderás: Los conceptos básicos de la informática. Cómo se representa la información dentro del ordenador. Las unidades de información. 1.1 Conceptos básicos Informática.
Más detallesEntender el funcionamiento de los relojes permitiría lidiar con ciertas patologías en humanos. 28 ACTUALIDAD EN I+D RIA / Vol. 41 / N.
28 ACTUALIDAD EN I+D RIA / Vol. 41 / N.º 1 Entender el funcionamiento de los relojes permitiría lidiar con ciertas patologías en humanos Abril 2015, Argentina 29 Relojes biológicos en plantas Ajustar el
Más detalles4. Estadística Descriptiva
4. Estadística Descriptiva En este apartado se presentan las estadísticas descriptivas obtenidas a través de la aplicación de las encuestas que han sido detalladas en la Metodología. 4.1 Estadísticas de
Más detallesRoberto Quejido Cañamero
Crear un documento de texto con todas las preguntas y respuestas del tema. Tiene que aparecer en él todos los contenidos del tema. 1. Explica qué son los modos de presentación en Writer, cuáles hay y cómo
Más detallesTema 4. La producción
Tema 4 La producción Epígrafes La tecnología de la producción La producción con un factor variable (trabajo) Las isocuantas La producción con dos factores variables Los rendimientos a escala Cap. 6 P-R
Más detallesInternet Information Server
Internet Information Server Internet Information Server (IIS) es el servidor de páginas web avanzado de la plataforma Windows. Se distribuye gratuitamente junto con las versiones de Windows basadas en
Más detallesPARA QUÉ NÚMEROS REALES... 2 SUCESIONES... 3 NÚMEROS COMPLEJOS... 5 CÓNICAS... 6 FUNCIÓN INVERSA... 7 FUNCIONES CUADRÁTICAS... 8
PARA QUÉ SIRVE? Índice NÚMEROS REALES.... 2 SUCESIONES.... 3 SUCESIONES ARITMÉTICAS Y GEOMÉTRICAS.... 4 NÚMEROS COMPLEJOS.... 5 CÓNICAS.... 6 FUNCIÓN INVERSA.... 7 FUNCIONES CUADRÁTICAS.... 8 TEOREMA DE
Más detallesTema 2. La Información y su representación
Tema 2. La Información y su representación 2.1 Introducción. Un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica
Más detallesPolinomios y fracciones algebraicas
UNIDAD Polinomios y fracciones algebraicas U n polinomio es una expresión algebraica en la que las letras y los números están sometidos a las operaciones de sumar, restar y multiplicar. Los polinomios,
Más detallesIntroducción a la Firma Electrónica en MIDAS
Introducción a la Firma Electrónica en MIDAS Firma Digital Introducción. El Módulo para la Integración de Documentos y Acceso a los Sistemas(MIDAS) emplea la firma digital como método de aseguramiento
Más detallesDISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.
DISCOS RAID Raid: redundant array of independent disks, quiere decir conjunto redundante de discos independientes. Es un sistema de almacenamiento de datos que utiliza varias unidades físicas para guardar
Más detallesPARÁBOLA. 1) para la parte positiva: 2) para la parte negativa: 3) para la parte positiva: 4) para la parte negativa:
Página 90 5 LA PARÁBOLA 5.1 DEFINICIONES La parábola es el lugar geométrico 4 de todos los puntos cuyas distancias a una recta fija, llamada, y a un punto fijo, llamado foco, son iguales entre sí. Hay
Más detallesTema 1. Representación de la información MME 2012-20131
Tema 1 Representación de la información 1 Índice Unidad 1.- Representación de la información 1. Informática e información 2. Sistema de numeración 3. Representación interna de la información 2 Informática
Más detallesSeñal de Referencia: Es el valor que se desea que alcance la señal de salida. SET POINT.
EL ABC DE LA AUTOMATIZACION ALGORITMO DE CONTROL PID; por Aldo Amadori Introducción El Control automático desempeña un papel importante en los procesos de manufactura, industriales, navales, aeroespaciales,
Más detallesGANTT, PERT y CPM. Figura 5.3: Carta GANTT 3.
GANTT, PERT y CPM Características Conseguir una buena programación es un reto, no obstante es razonable y alcanzable. Ella debe tener el compromiso del equipo al completo, para lo cual se recomienda que
Más detalles