Introducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Introducción a la Teoría de la Información. Tomás V. Arredondo 8/4/2011"

Transcripción

1 Introducción a la Teoría de la Información Tomás V. Arredondo 8/4/20

2 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.

3 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Que es la información? La información como es conocida comúnmente es una amalgama de muchas nociones vagas e imprecisas que generalmente es medida basada en la cantidad de noticia (o sorpresa) que provee. Que es la teoría de la información? Serie de las leyes para relacionar determinado orden de fenómenos relacionados con la comunicación de la información entre su origen y su destino a través de un canal.

4 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Comunicaciones Básico Origen Canal Destino Mensaje M Mensaje M

5 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Cuál es el rol de las probabilidades en las comunicaciones? Las probabilidades nos dan una manera de determinar cuantitativamente las características que queremos estudiar en los sistemas (ej. la distribución de la información de un origen, la confiabilidad de un canal, la relación entre el origen y el destino de la información entre otras) Las probabilidades están basadas en las frecuencias observables de la ocurrencia de eventos

6 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades Si repetimos un experimento N veces que tiene M diferentes resultados posibles y contamos el numero de veces que se observan las diferentes posibilidades n, n 2,..., n M entonces podemos determinar la frecuencia de estas observaciones (f, f 2,..., f M ) al dividir n, n 2,..., n M por N. Si N estas frecuencias son la probabilidad (p, p 2,..., p M ) de ocurrencia del evento y sus valores posibles son entre 0 y. El siguiente es el caso de tener los eventos A, B, AB (A y B, ambos eventos ocurriendo), A B (ninguno de los dos). A B A AB B

7 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Permutaciones: Las permutaciones son el reordenamiento de objetos o símbolos en secuencias distinguibles: El numero de permutaciones de n objetos es n! n(n-)(n-2) ! = La formula para el numero de permutaciones de r objetos seleccionados de un conjunto de n objetos: P n,r = n! n r! Cada uno de los objetos es distinguible de los otros

8 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si tengo 6 tarros de pintura de color y una flota de 4 autos (Ferrari, Jaguar, Corvette, Citroen), el numero de permutación posibles para pintar los autos es o usando la formula: P n,r = P 6, 4 = 6! 6 4! =360 Si alguien eligiera una permutación de colores para su flota al azar la probabilidad de ella seria = /360

9 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) En otras situaciones no nos importa la posición de selección de los objetos en cuestión. En ese caso se quieren determinar el numero de las combinaciones de elegir r objetos de un set de n objetos: Estas cantidades se llaman coeficientes binomiales porque fueron estudiados en relación con la expansion de binomiales en los cuales las maneras de seleccionar el numero de las variables es dado por la relación descrita anteriormente (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a + b) 3 = C n, r = n r 3 0 a3 3 a2b 3 2 ab2 3 3 b3 n n n 2... n r = = r! n! n r! r!

10 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si alguien compra 3 tipos de quesos del supermercado de 2 posibles tipos Cual es el numero de combinaciones de compra? No nos importa el orden en que los compramos (e.g. {Gruyere, Suizo, Cabra} se considera la misma combinación que {Suizo, Gruyere, Cabra}) C 2,3 = 2 3 = 2! 9! 3! =220 Si nos importara el orden el resultado seria una permutacion: P(2,3) = 2 0 = 320

11 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Probabilidad condicional Muchas veces es importante saber la probabilidad de un evento (A) basado en información previa sobre otro evento o variable, este otro evento o variable determina el espacio de muestreo (S) que se esta usando y por ende el valor de la probabilidad La probabilidad de A dado S se escribe: P(A S}

12 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si se observan el siguiente numero de eventos: A ocurre, B no ocurre (AB ): n B ocurre, A no ocurre (BA ): n 2 A y B ocurren (AB): n 3 Ni A ni B ocurren (A B ): n 4 A o B o ambos ocurren (A + B): n + n 2 + n 3 El total de los eventos son N: N = n + n 2 + n 3 + n 4 Las frecuencias son: f {A} = (n + n 3 )/N, f {B} = (n 2 + n 3 )/N, f {AB} = n 3 /N, f {A+B} = (n + n 2 + n 3 )/N = f {A} + f {B} f {AB}, La frecuencia que A ocurre si sabemos que B ya ocurrió f {A B} = n 3 /(n 2 + n 3 ), La frecuencia que B ocurre si sabemos que A ya ocurrió f {B A} = n 3 /(n + n 3 ), A B A AB AB B BA

13 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Cuando N tiende a estas frecuencias tienden a probabilidades: P{A+B} = P{A B} = P{A} + P{B} - P{AB} P{A} + P{B} P{AB} = P{A B} = P{A} P{B A} P{AB} = P{A B} = P{B} P{A B} P{A B} = P{AB}/P{B}, P{B} 0 P{B A} = P{AB}/P{A}, P{A} 0 Para eventos A y A (inversos) P{A+A }= P{AA } = 0

14 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Se saca una carta de un mazo de cartas: A = Sale una carta roja, B = sale un rey, AB = sale un rey rojo, A + B = sale un rey o sale una carta roja Prob{A} = /2, Prob{B} = /3, Prob{AB} = (/3)(/2)= /26 Prob{A + B} = Prob{A} + Prob{B} Prob{AB} = /2 +/3 /26 = 7/3

15 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Si estamos tirando dos dados y tenemos los siguientes eventos: A = Dado sale 3, B = dado 2 sale, C = la suma de ambos da 8. Probs. apriori (antes de tener mas datos): P{A} = P{B} = /6, P{C} = 5/36 Probs. conjuntas: P{A Β} = /36, P{A C} = /36, P{B C} = 0/36 Probs. condicional: P{C Β} = 0, P{C A} = / 6, P{B A } = P{B} dado que A y B son independientes.

16 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si el evento A y B son independientes P{A B} = P{A} P{B A} = P{B} P{A+B} = P{A B} = P{A} + P{B} P{AB} = P{A B} = P{A} P{B} A B A AB B BA

17 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Ejemplo: Se tiran dos dados, uno rojo y uno blanco: A = Dado rojo sale uno, B = Dado blanco sale seis AB = dado rojo sale uno y dado blanco sale seis A + B = dado rojo sale uno o dado blanco sale seis Prob{A} = P{A B} = /6, Prob{B} = P{B A} = /6, Prob{AB} = (/6)(/6)= /36 Prob(A + B) = /6 + /6 = /3

18 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Las frecuencias y las probabilidades (cont) Si el evento A y B son excluyentes: P{AB} = { } Ejemplo: Se tira un dado: A = el dado sale, B = el dado sale 2 AB = el dado sale y el dado sale 2 A+B = el dado sale o el dado sale 2 Prob{A} = /6, Prob{B} = /6, Prob{AB} = { } Prob{A+B} = /6 + /6 = /3

19 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Función Discreta de Probabilidad (PDF) y Función Cumulativa de Probabilidad (CDF) Si se tiene un experimento aleatorio y los resultados se pueden poner en correspondencia con un numero de enteros positivos entonces ese numero de enteros se denomina un espacio de muestreo discreto. En un espacio discreto de muestreo, cuando la variable aleatoria X asume valores {x, x 2, x 3,...,x k } la función discreta de probabilidad f(x) se define como: {p,p 2, p 3,...,p k } en el cual f(x k ) = Prob{X = x k } = x k La función cumulativa de probabilidad se define como: F x = x j x f x j

20 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Función Discreta de Probabilidad (PDF) y Función Cumulativa de Probabilidad (CDF) (cont) Ejemplo: Se tira una moneda repetidamente hasta que sale una cara X = La moneda sala cara por primera vez en el tiro k X = {, 2, 3,...,k} PDF: f = {/2, /4, /8,..., 2 -k } CDF: F(x) = x.5 f(x) F(x) x x

21 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables En la mayoría de los problemas en ingeniería es importante saber la distribución entre multiples variables aleatorias. Esto puede ser para por ejemplo saber el comportamiento de un sistema con inputs (X) y outputs (Y). Para estudiar esto se formaliza la idea de una distribución discreta multivariable. Si se tienen dos variables aleatorias X e Y entonces la PDF y CDF se definen de esta forma: PDF: f(x, y) = Prob{X = x, Y= y} CDF: F x, y = x j x y k y f x j, y k Se denominan probabilidades marginales cuando solo se considera solo una de las dos variables sin consideración por la otra.

22 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Distribución (probabilidad) marginal La distribución marginal de una matrix (n x m) de probabilidades se calculan según: P( X = i) = Σ j (p ij ) = p i + p i p in, P( Y = j) = Σ i (p ij ) = p j + p 2j p mj Y= Ejemplo: P( X = ) = p +p 2 +p 3 +p 4 = 4/6 = /4 P( Y = 2) = p 2 +p 22 +p 32 +p 42 = 5/6 [ X= ] 4/6 4/6 4/6 4/6 3/6 5/6 5/6 3/6

23 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Ejemplo: Un sistema con input (X) y output (Y). Cual es la Prob{ 3 X 5, 2 Y 3 } y las probabilidades marginales de X e Y? Probabilidad de cada punto en la muestra: P{X=i, Y=j} = /36 P{ 3 X 5, 2 Y 3 } = 6/36 = /6 Probabilidades marginales: P{ 3 X 5} = 8/36 = /2 P{ 2 Y 3} = 2/36 = /3 X e Y son independientes, ya que todos los valores del arreglo /36 = (/6)(/6) X= Y= [ /6 /6 /6 /6 /6 /6 ] /6 36 /6 36 /6 36 / /6 36 /6

24 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Si se quieren comparar fuentes y canales de datos, se pueden usar medidas de las diferencias entre ellos Estas medidas nos pueden dar un reflejo del tipo de fuente y del tipo de canal que se esta estudiando X Sistema de comunicaciones Y

25 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Ejemplo: Binary Symmetric Channel (BSC), un modelo de un canal simple pero que incluye gran parte de la complejidad del problema de comunicaciones en general. Nos interesa P{Y X}, mas específicamente: P{0 0} = P{ } = p, P{ 0} = P{0 } = q X 0 q p Y 0 q p

26 Aplicaciones: n v/s log n Como se usan las probabilidades en las comunicaciones? Ejemplo: Binary Erasure Channel (BEC) Para el BEC P{0 0} = P{ } = p, P{z 0} = P{z } = q X Y p 0 0 q q z p

27 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Funciones Discretas de Multiples Variables (cont) Probabilidades Condicionales Considere una matrix de probabilidades para dos variables aleatorias X, Y representando un transmisor y un receptor: Como se calcula la probabilidad de X dado Y: P( X Y } o Y dado X: P( Y X }? P{ X = i Y = j ) = p(x i y j ) = p(x i, y j ) / Σ i (p ij ) Y= P{ Y = j X = i )= p(y j x i ) = p(x i, y j ) / Σ j (p ij ) Ejemplo: X= P( X = Y = 2) = p(x, y 2 ) / Σ i (p i2 ) = (/6) / (5/6) = /5 P( Y = 3 X = 3) = p(x 3, y 3 ) / Σ j (p 3j ) = (2/6) / (4/6) = /2 [ ] 4/6 4/6 4/6 4/6 3/6 5/6 5/6 3/6

28 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.

29 Aplicaciones: log n v/s Entropía La entropía H(X) H(X) es una medida de la incertidumbre o de la información promedio que nos provee una variable aleatoria (o grupo de variables aleatorias) La selección de un evento de dos posibles eventos de igual probabilidad requiere bit de información La selección de un evento de cuatro posibles eventos de igual probabilidad requiere 2 bits de información...etc...

30 Aplicaciones: log n v/s Entropía La entropia H(X) (cont) Si tenemos un espacio de muestreo dividido en 2 N eventos que son igualmente probables E k (k =, 2,..., 2 N ) entonces la información (en bits) proveida por el evento E k es: I(E k ) = log(p k ) = log 2 N = N

31 Aplicaciones: log n v/s Entropía La entropia H(X) (cont) La información promedio dada por una variable aleatoria X que representa un sistema finito de probabilidades entonces n es: H(X) cumple con varios requisitos: Continuidad Simetría Extrema: cuando todos los eventos son equiprobables H(X) tiene que ser máximo, cuando uno es el unico probable H(X) tiene que ser mínimo Aditiva H(X) = I(E k ) = k = p k log 2 (p k )

32 Aplicaciones: n v/s log n La entropia H(X): porque nlogn como medida? Si se tiene un sistema con por ejemplo n diferentes opciones de transmisión Y si se quiere tener una medida basada en esas opciones para poder diferenciar un sistema de otro o para diseñar sistemas en el cuales el origen, el canal y el destino estuvieran bien dimensionados. Podría usarse por ejemplo el numero de estados n como medida de las opciones disponibles?

33 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico Ejemplo: Un sistema de comunicaciones Morse en el cual se pueden mandar tres diferentes combinaciones de claves. En nuestro ejemplo cada una de las tres claves tiene dos posibles estados (raya y punto).

34 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico Ejemplo (cont): Asumiendo que todos los estados son equiprobables las probabilidades son: P{cl=raya} = P{cl=punto} = P{cl2=raya} = P{cl2=punto} = P{cl3=raya} = P{cl3=punto} = ½ En nuestro ejemplo el sistema visto como conjunto tiene ocho posibles estados (raya-raya-raya, raya-raya-punto,, puntopunto-punto, 2 3 =8) pero las tres claves como componentes del sistema nos da seis posibles estados (2+2+2=6).

35 Aplicaciones: n v/s log n Clave 3 Clave 2 Clave Estado

36 Aplicaciones: n v/s log n La entropia H(X): n, una posible medida de un sistema probabilistico El numero de estados (n) para el sistema es m s = 8, para cada clave m c =m c2 =m c3 = 2 Una cualidad deseable en cualquier medida es que se puedan sumar los estados de los componentes del sistema y que esta suma sea igual a los estados del sistema completo m c + m c2 + m c3 = m s Pero Entonces simplemente usar n no funciona Qué hacer? Afortunadamente una manera de transformar productos de números a sumas es usando el logaritmo.

37 Aplicaciones: n v/s log n La entropia H(X): log n, otra posible medida de sistema probabilistico log 2 n tiene la capacidad requerida de nuestra medida ya que: log 2 (2) + log 2 (2) + log 2 (2) = log 2 (8) Entonces usando nuestra nueva medida m = log 2 (n) Para el sistema entero log 2 (n s ) = log 2 (8) y para cada clave log 2 (n c )= log 2 ( n c2 ) = log 2 ( n c3 ) = log 2 (2) Esta nueva medida si tiene esta cualidad deseada (propiedad aditiva) m c + m c2 + m c3 = m s Típicamente se usa la base 2 para el logaritmo especialmente en sistemas binarios. En este caso la unidad de información de sistemas binarios se llama bit que es una contracción de binary unit.

38 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas En sistemas en los cuales las probabilidades de los componentes transmitidos en mensajes no son equiprobables, entonces es necesario ampliar nuestra medida (log 2 (n)). Esta medida se llama entropía se usa el símbolo H para designarla.

39 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas No se pueden sumar las contribuciones de los diferentes componentes de manera igual ya que en sistemas reales los componentes de los mensajes tienen diferentes frecuencias y probabilidades. Incluir esas probabilidades es esencial para que nuestra medida mida las contribuciones de las diferentes opciones en nuestro mensajes de manera mas realista.

40 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Ejemplo: Sistema morse Si {P(raya) =. y P(punto) =.9} se puede decir que la información promedio contribuida por una raya es P raya log(p raya ) y la información promedio contribuida por un punto es P punto log(p punto ).

41 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Asumiendo que X = {raya, punto}, P(raya)=., P(punto)=.9, x es una variable aleatoria del espacio X, N es la cantidad de opciones igual a 2 (raya o punto). H(X) deberia tender a 0 cuando P(x n ) tiende a cero o a ya que eso indica certeza en el mensaje y al haber certeza no hay incertidumbre (una pista: -P(x n )logp(x n ) tiende a cero cuando P(x n ) es cero o uno). El valor máximo de H(X) es cuando P(x n ) = /N = ½ indicando mayor incertidumbre en el mensaje y más información transmitida sobre el sistema (propiedad extrema).

42 Aplicaciones: log n v/s Entropía La entropia H(X): Sistemas con probabilidades distintas Si el numero de posibles resultados equiprobables se incrementa entonces la entropía también se incrementa. También nos interesa que esta función H(X) tenga simetría con respecto a la probabilidades de izquierda a derecha H(X) debiera ser concava hacia abajo (limitada) y continua Para que cumpla con estos requerimientos, la entropía se define de la siguiente forma: H(X) = i pi log(pi )

43 Aplicaciones: log n v/s Entropía Medidas Valores log(p) -log(p) -Plog(P) Probabilidad P

44 Aplicaciones: log n v/s Entropía Medidas Valores Plog(P) Probabilidad P

45 Aplicaciones: log n v/s Entropía Medidas Valores P2log(P2) Probabilidad P

46 Aplicaciones: log n v/s Entropía Medidas.2 Valores H(x) H(x)=-Plog(P)-P2log(P2) Probabilidad P (P2 = - P)

47 Aplicaciones: Entropía Ejemplos H(X): Si P(raya) =., P(punto) =.9: H(X) = -(.log log 2.9) = bits Si P(raya) =.9, P(punto) = 0.: H(X) = -(.9log log 2.) = bits {simetría} Si P(raya) =.5 y P(punto)=.5: H(X) = -(.5log log 2.5) =.0 bits {P=(/N) H(x) Máx } Si P(raya) =0 y P(punto)=: H(x) = -(0log log 2 ) = 0 bits {P=() H(x) Min =0}

48 Aplicaciones: Entropía Conclusion: Que es la entropía? La entropía H(X) mide la información o incertidumbre promedio de una variable aleatoria X (o sistema representado por X).

49 Aplicaciones: Entropía Entropías a considerar en un sistema Igual que cuando se estudio las probabilidades en el caso de tener dos variables aleatorias (Ej: transmisor X y receptor Y) se consideran las siguientes entropías para medir relaciones entre las variables: H(X) : Información o entropia por carácter en el transmisor (en bits) H(Y) : Información o entropia por carácter en el receptor (en bits) H(X,Y) : Información o entropia por par de caracteres transmitidos y recibidos (en bits) H(Y X) : Información o entropia condicional sobre el receptor Y sabiendo que X = i fue transmitido (en bits) H(X Y) : Información o entropia condicional sobre el transmisor sabiendo que Y = j fue recibido, también conocido como equivocación (en bits)

50 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema p(x=)=0.25, p(x=2)=0.4, p(x=3)=0.5, p(x=4)=0.5, p(x=5)=0.05 p(y=)=0.35, p(y=2)=0.35, p(y=3)=0.20, p(y=4)=0. Y= p( x y ) = p(x, y ) / Σ i (p i ) =0.25/0.35 =.74 [ ] 2 p( y x ) = 0.25/0.25 = X= p( y 2 x 3 ) = 0.05/0.5 = H X = i j p x, y log p X =i = i p X =i log p X =i H(X) = log log log log log log log log 0.05 = bits Equivalentemente: H(X) = log log log log log 0.05 = bits

51 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema H Y = i j H(Y) = log log log log log log log log 0. =.856 bits X= Equivalentemente: H(Y) = log log log log 0. =.856 bits H X, Y = i p x, y log p Y = j = j j p x, y log p x, y H(X, Y) = log log log log log log log log 0.5 = bits p Y = j log p Y = j [ 0.25 Y= ]

52 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) H X Y = i j H(X Y) = -p(x,y ) log p(x y ) - p(x 2,y ) log p(x 2 y ) - p(x 2,y 2 ) log p(x 2 y 2 ) - p(x 3,y 2 ) log p(x 3 y 2 ) - p(x 4,y 3 ) log p(x 4 y 3 ) - p(x 4,y 4 ) log p(x 4 y 4 ) - p(x 5,y 3 ) log p(x 5 y 3 ) - p(x 5,y 4 ) log p(x 5 y 4 ) = bits p X =i,y = j log p x y = j p Y = j H X Y = j Equivalentemente: H(X Y) = 0.35 H(0.25/0.35, 0./0.35) H(0.3/0.35, 0.05/0.35) H(0./0.2, 0.05/0.2, 0.05/0.2) + 0. H(0./0.) = bits [ X= Y= ]

53 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) H Y X = i j H(Y X) = - p(y,x ) log p(y x ) - p(y,x 2 ) log p(y x 2 ) p(y 2,x 2 ) log p(y 2 x 2 ) - p(y 2,x 3 ) log p(y 2 x 3 ) - p(y 3,x 3 ) log p(y 3 x 3 ) - f(y 3,x 4 ) log p(y 3 x 4 ) - f(y 3,x 4 ) log p(y 3 x 4 ) - p(y 3,x 5 ) log p(y 3 x 5 ) = 0.6 bits p X =i,y = j log p y x = i p X =i H Y X =i Equivalentemente: H(Y X) = 0.25 H(0.25/0.25) H(0./0.4,0.3/0.4) H(0.05/0.5, 0./0.5) H(0.05/0.5, 0./0.5) H(0.05/0.05) X= = 0.6 bits [ Y= ]

54 Aplicaciones: Entropía Ejemplo: Entropías a considerar en un sistema (cont) Hay que notar que H(x,y) < H(X) + H(Y) < y que: H(X,Y) = H(Y) + H(X Y) = H(X) + H(Y X) = = H(X, Y) H(X, Y) H(X) H(Y X) H(X Y) H(Y)

55 Aplicaciones: Entropía Información Mutua La información mutua I(X;Y) es una medida de la información proveida por los pares de símbolos (x,y), la relación entre I(X;Y) y la entropia es: H(X,Y) = H(X) + H(Y X) = H(Y) + H(X Y) H(X,Y) = H(X) + H(Y) - I(X;Y) I(X;Y) = H(X) H(X Y) I(X;Y) = H(Y) H(Y X) I(X;Y) mide la dependencia entre el input X y el output Y, o la información transmitida por el canal, es positiva y simétrica en X y Y. H(X, Y) H(X) H(Y) H(X Y) I(X;Y) H(Y X)

56 Aplicaciones: Entropía Información Mutua La capacidad de un canal definida por Shannon es C = max I(X;Y), max I(X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es zero o cuando la incertidumbre de recibir Y dado X es zero: Si I(X;Y) = H(X) H(X Y), cuando H(X Y) = 0 max I(X;Y) = C Si I(X;Y) = H(Y) H(Y X), cuando H(Y X) = 0 max I(X;Y) = C H(Y X) maxima H(X, Y) H(Y X) grande H(X, Y) H(Y X) chica H(Y X) = 0 H(X, Y) H(X, Y) H(X) H(Y X) = H(Y) I(X;Y)=0 I(X;Y) I(X;Y) H(X) = H(Y) = H(X, Y) = I(X;Y)

57 Aplicaciones: Entropía Información Mutua (cont) Para un canal libre de ruido (canal perfecto): p( x y ) = 0.25/0.25 =, p( x 2 y 2 ) = 0.25/0.25 = p( x 3 y 3 ) = 0.25/0.25 =, p( x 4 y 4 ) = 0.25/0.25 = X= Y= [ ] p( y x ) = 0.25/0.25 =, p( y 2 x 2 ) = 0.25/0.25 = p( y 3 x 3 ) = 0.25/0.25 =, p( y 4 x 4 ) = 0.25/0.25 = todos los otros f(x y) y f(y x) son zero H X,Y = x y p x, y log p x, y H(X, Y) = 0.25 log log log log 0.25 = 2 bits

58 Aplicaciones: Entropía Información Mutua (cont) H(X) = 0.25 log log log log 0.25 = 2 bits H(Y) = 0.25 log log log log 0.25 = 2 bits X= Y= [ ] H(Y X) = log 0.25log -0.25log -0.25log = 0 similarmente H(X Y) = 0 Para este canal libre de ruido : I(X;Y) = H(X) = H(Y) = H(X,Y) = 2 bits

59 Aplicaciones: Entropía Información Mutua (cont) Para un canal con inputs y output independientes: H(Y X) = H(Y) (maxima) H(X, Y) H(X) = H (X Y) H(Y X) = H(Y) I(X;Y)=0 X= 2 H(X) = H(X Y) =, H(Y) = H(Y X) =, H(X,Y) = 2 I(X;Y)= H(X) H(X Y) = = 0 bits = H(Y) H(Y X) = = 0 bits Para un canal libre de ruido (canal perfecto): X= H(Y X) = 0 2 H(X, Y) H(X) =, H(Y) =, H(X,Y) =, H(X Y) = 0, H(X Y) = 0 Y= 2 [ ] Y= 2 [ ] I(X;Y)= H(X) H(X Y) = 0 = bit H(X) = H(Y) = H(X, Y)=I(X;Y) = H(Y) H(Y X) = 0 = bit

60 Aplicaciones: Entropía Relativa Que es la entropía relativa? La entropía relativa es una medida de la distancia o divergencia entre dos funciones de probabilidad p(x) y q(x). También es conocida como distancia Kullback Leibler (KL y KL2). La medida Jensen/Jeffreys (simétrica) es la suma de KL y KL2 : J = KL + KL2. Hay muchas otras medidas de divergencia aparte de KL, KL2 y J. KL = KL2 = D(p q) = D(p q) = i i p log(p i i / qi ) q i log(qi / pi )

61 Aplicaciones: Entropía Relativa Ejemplos de H(x), KL, KL2 y J: Hay dos dados (los dos están arreglados!) y por consecuencia dos variables aleatoria X e Y con los siguientes valores y probabilidades. Posibles eventos : X = [, 2, 3, 4, 5, 6], Y = [, 2, 3, 4, 5, 6] Ejemplo : Funciones de probabilidades discreta: f(x) = {p x, p x2, p x3, p x4, p x5, p x6 } = {/3,/3,/2,/2,/2,/2}, f(y) = {p y, p y2, p y3, p y4, p y5, p y6 } = {/2,/2,/6,/6,/6,/3} 4/2 4/2 f(x) 3/2 2/2 f(y) 3/2 2/2 /2 / X Y

62 Aplicaciones: Entropía Relativa Ejemplo de H(x), KL, KL2 y JS (cont): H(X) = -(/3log 2 /3+/3log 2 /3+...+/2log 2 /2) = H(Y) = -(/2log 2 /2+/6log 2 /6+...+/3log 2 /3) = KL = D(X Y) = KL2 = D(X Y) =.333 J = KL + KL2 = Ejemplo 2: f(x) = {/2,/2,/6,/6,/6,/3} f(y) = {/3,/3,/2,/2,/2,/2}, KL = D(X Y) =.333 KL2 = D(X Y) = J = KL + KL2 = KL y KL2 no son simétricas pero J si lo es.

63 Introducción a la a la Teoría de la Información y Aplicaciones Contenidos: Introducción a algunos aspectos de la teoría de la información (T.I.): información y probabilidades Entropía Reseña de algunas aplicaciones en diferentes áreas incluyendo: Comunicaciones, Encripción y Bioinformática.

64 Aplicaciones: Aplicaciones Comunicaciones La T.I. es muy importante en el continuo desarrollo de las comunicaciones. Un canal de comunicaciones es un sistema en el cual el output (M ) depende probabilisticamente del input (M). La entropía H(x) mide la incertidumbre de una variable aleatoria (X). Para medir la incertidumbre de un canal de comunicaciones se usa una medida llamada la información mutual I(X;Y) = H (X) H(X Y).

65 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Comunicación Origen Codificador Canal Decodificador Destino Mensaje M Mensaje M

66 Aplicaciones: Aplicaciones Comunicaciones I(X;Y) mide la dependencia entre el input X y el output Y es positiva y simétrica en X y Y. La capacidad de un canal es C=max I(X;Y); max I(X;Y) es cuando la incertidumbre de lo que se transmitió (X) dado Y es zero : H(X Y) = 0 C=max I(X;Y).

67 Aplicaciones: Aplicaciones Comunicaciones Claude Shannon demostró que la información puede ser transmitida con fiabilidad hasta el ritmo permitido por la capacidad del canal C. Esta fiabilidad era independiente del ritmo de la transmisión siempre que fuera menor que C. El teorema de codificación de canales de Shannon prometió la existencia de códigos que permitirían la transmisión de información a velocidades mas rapidas. Algunos codigos que usaron estas ideas son los codigos de Hamming y Reed-Solomon.

68 Aplicaciones: Aplicaciones Criptografía La teoría de la información también es usada en otras áreas como la encriptación. Usando M como el mensaje, C como el cypher texto, K como la llave para la encriptación. La situación corresponde al sistema de comunicaciones pero con agregando seguridad a la informacion transmitida.

69 Introducción a la a la Teoría de la Información y Aplicaciones: Introducción Sistema de Encriptación K Generador de llaves K Origen Encriptor Canal Decriptor Destino Interceptor Mensaje M Mensaje M (e, K, C) C=e(M,K)

70 Aplicaciones: Aplicaciones Criptografía Shannon describió la equivocación de la llave H(K C) el cual mide la incertidumbre promedio de una llave K cuado un criptograma C ha sido interceptado. Conceptos de la teoría de la información han sido usado en procesos y algoritmos como PGP, RSA, DES y otros. Gracias a estos algoritmos existe el internet como se conoce hoy.

71 Aplicaciones: Aplicaciones Bioinformática Los conceptos de divergencia (Kullback Leibler) entre distribuciones ha sido usado en la Bioinformática para la detección de patrones en secuencias de ADN. Estas secuencias son un patrón estocástico que puede ser considerado como un generador ergodico de caracteres. Los caracteres usados en el ADN son el A, T, C, y G. Usando métodos basados en la Teoría de la Información es posible mejorar el análisis de codones (tripletes de ADN que generan proteínas), motifs (grupos de caracteres que tienen una significancia biológica) y otros relieves de interés.

72 Aplicaciones: Aplicaciones Ejemplo: Usando la diferencia en sus estadísticas se han creado medidas para medir la divergencia entre de codones y nocodones. Usando un indicador (pointer) se calculan las frecuencias de los doce diferentes nucleótidos (A0, T0, C0, G0, A, T, C, G, A2, T2, C2, G2) a la izquierda y derecha del indicador Se usan las doce frecuencias a la izquierda como p: (fia0,...fig2) y las otras doce como q: (fda0,...,fdg2) Se usan diferentes medidas (KL, KL2,...) para calcular D(p q) y detectar codones y no codones. Hay muchas (mas de treinta) diferentes medidas que pueden ser usadas con estos propósitos.

73 Aplicaciones: Aplicaciones Bioinformatica Medida Kullback Leibler (KL) y KL2 KL,2 = I,2 = P log(p / p2) KL2, = I2, = P2 log(p2 / p) Medida Jensen Jeffreys (J) J = KL + KL,2 2,

74 Aplicaciones: Aplicaciones Bioinformatica Medida Kullback Leibler para detectar codones () human ; (2) ecoli; (3) jannaschii; and (4) rprowazekii) I II III I II III 0.06 () 0.06 (2) KL KL (3) 0.3 (4) KL KL Pointer position Pointer position

75 Aplicaciones: Conclusión En general estas medidas y la Teoría de la Información pueden ser usadas para detectar patrones estadísticos en muchos tipos de secuencias, imagenes u otras formas de información. La Teoría de la Información nos da una base teórica para la investigación de muchas áreas diferentes aparentemente no relacionadas.

76 Aplicaciones Referencias: [] Reza, F., An Introduction to Information Theory, Dover Publications, 994 [2] Cover, T., Elements of Information Theory, Wiley, 99 [3] Galvan, P.B. et al, Finding Borders between Coding and Noncoding DNA Regions by an Entropic Segmentation Method, Physical Review Letters, 85 (2000) [4] en.wikipedia.org

Introducción a la Teoría de Probabilidad

Introducción a la Teoría de Probabilidad Capítulo 1 Introducción a la Teoría de Probabilidad Para la mayoría de la gente, probabilidad es un término vago utilizado en el lenguaje cotidiano para indicar la posibilidad de ocurrencia de un evento

Más detalles

TEMA 2: Representación de la Información en las computadoras

TEMA 2: Representación de la Información en las computadoras TEMA 2: Representación de la Información en las computadoras Introducción Una computadora es una máquina que procesa información y ejecuta programas. Para que la computadora ejecute un programa, es necesario

Más detalles

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales

Tema 3: Variables aleatorias y vectores aleatorios bidimensionales Estadística 38 Tema 3: Variables aleatorias y vectores aleatorios bidimensionales El concepto de variable aleatoria surge de la necesidad de hacer más manejables matemáticamente los resultados de los experimentos

Más detalles

Módulo 9 Sistema matemático y operaciones binarias

Módulo 9 Sistema matemático y operaciones binarias Módulo 9 Sistema matemático y operaciones binarias OBJETIVO: Identificar los conjuntos de números naturales, enteros, racionales e irracionales; resolver una operación binaria, representar un número racional

Más detalles

Unidad Didáctica. Códigos Binarios

Unidad Didáctica. Códigos Binarios Unidad Didáctica Códigos Binarios Programa de Formación Abierta y Flexible Obra colectiva de FONDO FORMACION Coordinación Diseño y maquetación Servicio de Producción Didáctica de FONDO FORMACION (Dirección

Más detalles

Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte)

Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte) Unidad de trabajo 2: INFORMÁTICA BÁSICA (primera parte) Unidad de trabajo 2: INFORMÁTICA BÁSICA... 1 1. Representación interna de datos.... 1 1.2. Sistemas de numeración.... 2 1.3. Aritmética binaria...

Más detalles

1.4 Cálculo de Probabilidades con Métodos de Conteo. Considerere un espacio muestral finito,

1.4 Cálculo de Probabilidades con Métodos de Conteo. Considerere un espacio muestral finito, 1 1.4 Cálculo de Probabilidades con Métodos de Conteo Considerere un espacio muestral finito, y defina, Luego, Ω = {ω 1,..., ω n }, P ({ω i }) = p i, i = 1,..., n P (A) = ω i A p i, A Ω Ω se dice equiprobable

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 1. Se eligen tres autos al azar y cada uno es clasificado N si tiene motor naftero o D si tiene motor diesel (por ejemplo, un resultado posible sería NND). a)

Más detalles

CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA

CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA CRIPTOGRAFÍA SIMÉTRICA Y ASIMÉTRICA Para generar una transmisión segura de datos, debemos contar con un canal que sea seguro, esto es debemos emplear técnicas de forma que los datos que se envían de una

Más detalles

Teoría de Probabilidad

Teoría de Probabilidad Matemáticas Discretas L. Enrique Sucar INAOE Teoría de Probabilidad Considero que la probabilidad representa el estado de la mente con respecto a una afirmación, evento u otra cosa para las que no existe

Más detalles

Capítulo 7: Distribuciones muestrales

Capítulo 7: Distribuciones muestrales Capítulo 7: Distribuciones muestrales Recordemos: Parámetro es una medida de resumen numérica que se calcularía usando todas las unidades de la población. Es un número fijo. Generalmente no lo conocemos.

Más detalles

Clase 4: Probabilidades de un evento

Clase 4: Probabilidades de un evento Clase 4: Probabilidades de un evento Definiciones A continuación vamos a considerar sólo aquellos experimentos para los que el EM contiene un número finito de elementos. La probabilidad de la ocurrencia

Más detalles

ESTIMACIÓN. puntual y por intervalo

ESTIMACIÓN. puntual y por intervalo ESTIMACIÓN puntual y por intervalo ( ) Podemos conocer el comportamiento del ser humano? Podemos usar la información contenida en la muestra para tratar de adivinar algún aspecto de la población bajo estudio

Más detalles

ANÁLISIS DE DATOS NO NUMERICOS

ANÁLISIS DE DATOS NO NUMERICOS ANÁLISIS DE DATOS NO NUMERICOS ESCALAS DE MEDIDA CATEGORICAS Jorge Galbiati Riesco Los datos categóricos son datos que provienen de resultados de experimentos en que sus resultados se miden en escalas

Más detalles

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 7 PROBABILIDADES Y ESTADÍSTICA (C) Práctica 2 1. Se eligen tres autos al azar y cada uno es clasificado N si tiene motor naftero o D si tiene motor diesel (por ejemplo, un resultado posible sería N N D).

Más detalles

2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24

2. Probabilidad. Estadística. Curso 2009-2010. Ingeniería Informática. Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 2. Probabilidad Estadística Ingeniería Informática Curso 2009-2010 Estadística (Aurora Torrente) 2. Probabilidad Curso 2009-2010 1 / 24 Contenidos 1 Experimentos aleatorios 2 Algebra de sucesos 3 Espacios

Más detalles

Explicación de la tarea 3 Felipe Guerra

Explicación de la tarea 3 Felipe Guerra Explicación de la tarea 3 Felipe Guerra 1. Una ruleta legal tiene los números del 1 al 15. Este problema corresponde a una variable aleatoria discreta. La lectura de la semana menciona lo siguiente: La

Más detalles

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true

by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true by Tim Tran: https://picasaweb.google.com/lh/photo/sdo00o8wa-czfov3nd0eoa?full-exif=true I. FUNDAMENTOS 3. Representación de la información Introducción a la Informática Curso de Acceso a la Universidad

Más detalles

ETS Caminos Santander. Curso 2012. Ejercicios de introducción a la programación.

ETS Caminos Santander. Curso 2012. Ejercicios de introducción a la programación. Ejercicio 1. Saludo. El programa preguntará el nombre al usuario y a continuación le saludará de la siguiente forma "Hola, NOMBRE" donde NOMBRE es el nombre del usuario. Ejercicio 2. Suma. El programa

Más detalles

Aula Banca Privada. La importancia de la diversificación

Aula Banca Privada. La importancia de la diversificación Aula Banca Privada La importancia de la diversificación La importancia de la diversificación La diversificación de carteras es el principio básico de la operativa en mercados financieros, según el cual

Más detalles

Medias Móviles: Señales para invertir en la Bolsa

Medias Móviles: Señales para invertir en la Bolsa www.gacetafinanciera.com Medias Móviles: Señales para invertir en la Bolsa Juan P López..www.futuros.com Las medias móviles continúan siendo una herramienta básica en lo que se refiere a determinar tendencias

Más detalles

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal)

Unidad I. 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal) Unidad I Sistemas numéricos 1.1 Sistemas numéricos (Binario, Octal, Decimal, Hexadecimal) Los computadores manipulan y almacenan los datos usando interruptores electrónicos que están ENCENDIDOS o APAGADOS.

Más detalles

Semana 13: Encriptación. Cifrado simétrico

Semana 13: Encriptación. Cifrado simétrico Semana 13: Encriptación Cifrado simétrico Aprendizajes esperados Contenidos: Características y principios del cifrado simétrico Algoritmos de cifrado simétrico Encriptación Simétrica En la encriptación

Más detalles

Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7

Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7 Unidad Temática 1: Unidad 3 Probabilidad Temas 6 y 7 Definiciones: 1- La probabilidad estudia la verosimilitud de que determinados sucesos o eventos ocurran o no, con respecto a otros sucesos o eventos

Más detalles

Lección 22: Probabilidad (definición clásica)

Lección 22: Probabilidad (definición clásica) LECCIÓN 22 Lección 22: Probabilidad (definición clásica) Empezaremos esta lección haciendo un breve resumen de la lección 2 del libro de primer grado. Los fenómenos determinísticos son aquellos en los

Más detalles

Lecturas previas Cuando llegue a su primera sesión de laboratorio debe haber estudiado el contenido de la lectura que aparece a continuación.

Lecturas previas Cuando llegue a su primera sesión de laboratorio debe haber estudiado el contenido de la lectura que aparece a continuación. Laboratorio 1 Medición e incertidumbre La descripción de los fenómenos naturales comienza con la observación; el siguiente paso consiste en asignar a cada cantidad observada un número, es decir en medir

Más detalles

QUIERES COMPROBAR CÓMO LAS REDES DETECTAN Y CORRIGEN ERRORES?

QUIERES COMPROBAR CÓMO LAS REDES DETECTAN Y CORRIGEN ERRORES? QUIERES COMPROBAR CÓMO LAS REDES DETECTAN Y CORRIGEN ERRORES? AUTORÍA MARÍA CATALÁ CARBONERO TEMÁTICA DETECCIÓN Y CORRECCIÓN DE ERRORES ETAPA CICLO MEDIO Y SUPERIOR DE INFORMÁTICA Resumen Hoy en día las

Más detalles

Introducción. Algoritmos

Introducción. Algoritmos Introducción La firma digital es una herramienta que permite garantizar la autoría e integridad de los documentos digitales, posibilitando que éstos gocen de una característica que únicamente era propia

Más detalles

1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0 1 0 0 0 0 1 1 0 1 1 0 0 0 1 1 1 1

1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0 1 0 0 0 0 1 1 0 1 1 0 0 0 1 1 1 1 5.1.3 Multiplicación de números enteros. El algoritmo de la multiplicación tal y como se realizaría manualmente con operandos positivos de cuatro bits es el siguiente: 1 1 0 1 x 1 0 1 1 1 1 0 1 + 1 1 0

Más detalles

Probabilidades y Estadística (Computación) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J.

Probabilidades y Estadística (Computación) Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires Ana M. Bianco y Elena J. Generación de Números Aleatorios Números elegidos al azar son útiles en diversas aplicaciones, entre las cuáles podemos mencionar: Simulación o métodos de Monte Carlo: se simula un proceso natural en forma

Más detalles

SISTEMAS DE NUMERACIÓN. Sistema decimal

SISTEMAS DE NUMERACIÓN. Sistema decimal SISTEMAS DE NUMERACIÓN Sistema decimal Desde antiguo el Hombre ha ideado sistemas para numerar objetos, algunos sistemas primitivos han llegado hasta nuestros días, tal es el caso de los "números romanos",

Más detalles

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS

Eduardo Kido 26-Mayo-2004 ANÁLISIS DE DATOS ANÁLISIS DE DATOS Hoy día vamos a hablar de algunas medidas de resumen de datos: cómo resumir cuando tenemos una serie de datos numéricos, generalmente en variables intervalares. Cuando nosotros tenemos

Más detalles

Universidad Diego Portales Facultad de Economía y Empresa

Universidad Diego Portales Facultad de Economía y Empresa Suponga que, conversando con su cuate, surge la idea de hacer una apuesta simple. Cada uno escoge decir cara ó sello. Se lanza una moneda al aire, y si sale cara, quien dijo sello le paga a quien dijo

Más detalles

Manejo de la Información

Manejo de la Información Los juegos de azar Manejo de la Información Que las y los estudiantes deduzcan y argumenten que la probabilidad de que un evento suceda está relacionada con la frecuencia en que ocurre el resultado esperado

Más detalles

Clase 5: Variables Aleatorias y Distribuciones de Probabilidad

Clase 5: Variables Aleatorias y Distribuciones de Probabilidad Clase 5: Variables Aleatorias y Distribuciones de Probabilidad Variables Aleatorias Una variable aleatoria es una función que asocia un número real con cada elemento del EM. Ejemplo 1: El EM que da una

Más detalles

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007 Enunciado Se desea efectuar el testing funcional de un programa que ejecuta transferencias entre cuentas bancarias. El programa recibe como parámetros la cuenta de origen, la de cuenta de destino y el

Más detalles

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos

TRANSMISION DIGITAL. PCM, Modulación por Codificación de Pulsos MODULACIÓN TRANSMISION DIGITAL La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda

Más detalles

Generación de Números Pseudo-Aleatorios

Generación de Números Pseudo-Aleatorios Números Aleatorios Son un ingrediente básico en la simulación de sistemas Los paquetes de simulación generan números aleatorios para simular eventos de tiempo u otras variables aleatorias Una secuencia

Más detalles

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones

Índice Introducción Números Polinomios Funciones y su Representación. Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Curso 0: Matemáticas y sus Aplicaciones Tema 1. Números, Polinomios y Funciones Leandro Marín Dpto. de Matemática Aplicada Universidad de Murcia 2012 1 Números 2 Polinomios 3 Funciones y su Representación

Más detalles

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio

Colegio Alexander von Humboldt - Lima. Tema: La enseñanza de la matemática está en un proceso de cambio Refo 07 2004 15 al 19 de noviembre 2004 Colegio Alexander von Humboldt - Lima Tema: La enseñanza de la matemática está en un proceso de cambio La enseñanza de la matemática debe tener dos objetivos principales:

Más detalles

CONSULTAS CON SQL. 3. Hacer clic sobre el botón Nuevo de la ventana de la base de datos. Aparecerá el siguiente cuadro de diálogo.

CONSULTAS CON SQL. 3. Hacer clic sobre el botón Nuevo de la ventana de la base de datos. Aparecerá el siguiente cuadro de diálogo. CONSULTAS CON SQL 1. Qué es SQL? Debido a la diversidad de lenguajes y de bases de datos existentes, la manera de comunicar entre unos y otras sería realmente complicada a gestionar de no ser por la existencia

Más detalles

Las Relaciones Públicas en el Marketing social

Las Relaciones Públicas en el Marketing social Las Relaciones Públicas en el Marketing social El marketing social es el marketing que busca cambiar una idea, actitud o práctica en la sociedad en la que se encuentra, y que intenta satisfacer una necesidad

Más detalles

Aproximación local. Plano tangente. Derivadas parciales.

Aproximación local. Plano tangente. Derivadas parciales. Univ. de Alcalá de Henares Ingeniería de Telecomunicación Cálculo. Segundo parcial. Curso 004-005 Aproximación local. Plano tangente. Derivadas parciales. 1. Plano tangente 1.1. El problema de la aproximación

Más detalles

Sistemas de numeración

Sistemas de numeración Sistemas de numeración Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. Los sistemas de numeración actuales son sistemas posicionales, que se caracterizan

Más detalles

Tema I. Sistemas Numéricos y Códigos Binarios

Tema I. Sistemas Numéricos y Códigos Binarios Tema I. Sistemas Numéricos y Códigos Binarios Números binarios. Aritmética binaria. Números en complemento-2. Códigos binarios (BCD, alfanuméricos, etc) Números binarios El bit. Representación de datos

Más detalles

MERCADOS FINANCIEROS: LOS FONDOS DE INVERSIÓN II

MERCADOS FINANCIEROS: LOS FONDOS DE INVERSIÓN II MERCADOS FINANCIEROS: LOS FONDOS DE INVERSIÓN II 28 febrero de 2012 Javier Marchamalo Martínez Universidad Rey Juan Carlos SABER INTERPRETAR LOS RATIOS SIGNIFICATIVOS EN LA GESTIÓN POR BENCHMARK Ratio

Más detalles

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES

MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES MATEMÁTICAS APLICADAS A LAS C.C. SOCIALES CAPÍTULO 7 Curso preparatorio de la prueba de acceso a la universidad para mayores de 25 años curso 2010/11 Nuria Torrado Robles Departamento de Estadística Universidad

Más detalles

El azar y la probabilidad. Un enfoque elemental

El azar y la probabilidad. Un enfoque elemental El azar y la probabilidad. Un enfoque elemental Experimentos al azar El azar puede percibirse fácilmente cuando se repite muchas veces una acción cuyo resultado no conocemos, como tirar dados, repartir

Más detalles

Covarianza y coeficiente de correlación

Covarianza y coeficiente de correlación Covarianza y coeficiente de correlación Cuando analizábamos las variables unidimensionales considerábamos, entre otras medidas importantes, la media y la varianza. Ahora hemos visto que estas medidas también

Más detalles

SISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: 5 10 2 2 10 1 8 10 0 =528 8 10 3 2 10 2 4 10 1 5 10 0 9 10 1 7 10 2 =8245,97

SISTEMAS DE NUMERACIÓN. Sistema de numeración decimal: 5 10 2 2 10 1 8 10 0 =528 8 10 3 2 10 2 4 10 1 5 10 0 9 10 1 7 10 2 =8245,97 SISTEMAS DE NUMERACIÓN Un sistema de numeración es un conjunto de símbolos y reglas que permiten representar datos numéricos. La norma principal en un sistema de numeración posicional es que un mismo símbolo

Más detalles

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión...

8.1. Introducción... 1. 8.2. Dependencia/independencia estadística... 2. 8.3. Representación gráfica: diagrama de dispersión... 3. 8.4. Regresión... Tema 8 Análisis de dos variables: dependencia estadística y regresión Contenido 8.1. Introducción............................. 1 8.2. Dependencia/independencia estadística.............. 2 8.3. Representación

Más detalles

1.1. Introducción y conceptos básicos

1.1. Introducción y conceptos básicos Tema 1 Variables estadísticas Contenido 1.1. Introducción y conceptos básicos.................. 1 1.2. Tipos de variables estadísticas................... 2 1.3. Distribuciones de frecuencias....................

Más detalles

SÍNTESIS Y PERSPECTIVAS

SÍNTESIS Y PERSPECTIVAS SÍNTESIS Y PERSPECTIVAS Los invitamos a observar, a identificar problemas, pero al mismo tiempo a buscar oportunidades de mejoras en sus empresas. REVISIÓN DE CONCEPTOS. Esta es la última clase del curso.

Más detalles

PROBABILIDAD Els problemes assenyalats amb un (*) se faran a classe de problemes.

PROBABILIDAD Els problemes assenyalats amb un (*) se faran a classe de problemes. PROBABILIDAD Els problemes assenyalats amb un (*) se faran a classe de problemes. 1.- (*) En una carrera en la que participan diez caballos de cuántas maneras diferentes se pueden dar los cuatro primeros

Más detalles

DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO

DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO I. SISTEMAS NUMÉRICOS DESARROLLO DE HABILIDADES DEL PENSAMIENTO LÓGICO LIC. LEYDY ROXANA ZEPEDA RUIZ SEPTIEMBRE DICIEMBRE 2011 Ocosingo, Chis. 1.1Sistemas numéricos. Los números son los mismos en todos

Más detalles

Cifras significativas e incertidumbre en las mediciones

Cifras significativas e incertidumbre en las mediciones Unidades de medición Cifras significativas e incertidumbre en las mediciones Todas las mediciones constan de una unidad que nos indica lo que fue medido y un número que indica cuántas de esas unidades

Más detalles

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina

Datos del autor. Nombres y apellido: Germán Andrés Paz. Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Datos del autor Nombres y apellido: Germán Andrés Paz Lugar de nacimiento: Rosario (Código Postal 2000), Santa Fe, Argentina Correo electrónico: germanpaz_ar@hotmail.com =========0========= Introducción

Más detalles

Curso Práctico de Bioestadística Con Herramientas De Excel

Curso Práctico de Bioestadística Con Herramientas De Excel Curso Práctico de Bioestadística Con Herramientas De Excel Fabrizio Marcillo Morla MBA barcillo@gmail.com (593-9) 4194239 Fabrizio Marcillo Morla Guayaquil, 1966. BSc. Acuicultura. (ESPOL 1991). Magister

Más detalles

Los servicios que presta Internet. RETO: Conocer y utilizar los servicios que nos ofrece Internet.

Los servicios que presta Internet. RETO: Conocer y utilizar los servicios que nos ofrece Internet. Ciclo V - Informática. Guía # 2 Los servicios que presta Internet RETO: Conocer y utilizar los servicios que nos ofrece Internet. Correo Electrónico. Chat. FTP. Foros. Mensajería. Protocolo. Breve introducción

Más detalles

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES

GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES GUÍA TÉCNICA PARA LA DEFINICIÓN DE COMPROMISOS DE CALIDAD Y SUS INDICADORES Tema: Cartas de Servicios Primera versión: 2008 Datos de contacto: Evaluación y Calidad. Gobierno de Navarra. evaluacionycalidad@navarra.es

Más detalles

1. Simule estas situaciones y concluya: a) Se tira una moneda equilibrada 10 veces y se observa qué proporción de veces salió cara en

1. Simule estas situaciones y concluya: a) Se tira una moneda equilibrada 10 veces y se observa qué proporción de veces salió cara en 1. Simule estas situaciones y concluya: a) Se tira una moneda equilibrada 10 veces y se observa qué proporción de veces salió cara en las sucesivas tiradas, se repite el experimento en condiciones similares

Más detalles

La nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx

La nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx La nueva criba de Eratóstenes Efraín Soto Apolinar 1 F.I.M.E. U.A.N.L. San Nicolás, N.L. México. efrain@yalma.fime.uanl.mx Resumen Se dan algunas definiciones básicas relacionadas con la divisibilidad

Más detalles

Validation. Validación Psicométrica. Validation. Central Test. Central Test. Centraltest CENTRAL. L art de l évaluation. El arte de la evaluación

Validation. Validación Psicométrica. Validation. Central Test. Central Test. Centraltest CENTRAL. L art de l évaluation. El arte de la evaluación Validation Validación Psicométrica L art de l évaluation Validation Central Test Central Test Centraltest L art de l évaluation CENTRAL test.com El arte de la evaluación www.centraltest.com Propiedades

Más detalles

Práctica 5. Curso 2014-2015

Práctica 5. Curso 2014-2015 Prácticas de Seguridad Informática Práctica 5 Grado Ingeniería Informática Curso 2014-2015 Universidad de Zaragoza Escuela de Ingeniería y Arquitectura Departamento de Informática e Ingeniería de Sistemas

Más detalles

UNIVERSIDAD AUTÓNOMA DE TAMAULIPAS UNIDAD ACADÉMICA MULTIDISCIPLINARIA REYNOSA-RODHE SIMULACIÓN DE SISTEMAS

UNIVERSIDAD AUTÓNOMA DE TAMAULIPAS UNIDAD ACADÉMICA MULTIDISCIPLINARIA REYNOSA-RODHE SIMULACIÓN DE SISTEMAS UNIDAD MÉTODOS DE MONTECARLO II 2.1 Definición Los métodos de Montecarlo abarcan una colección de técnicas que permiten obtener soluciones de problemas matemáticos o físicos por medio de pruebas aleatorias

Más detalles

UNIDAD 4 PROCESOS DE MARKOV

UNIDAD 4 PROCESOS DE MARKOV UNIDAD 4 PROCESOS DE MARKOV Anteriormente se han cubierto modelos estáticos, esto es, modelos cuyos parámetros permanecen sin cambio a través del tiempo. Con excepción de programación dinámica donde se

Más detalles

Tema 3 Probabilidades

Tema 3 Probabilidades Probabilidades 1 Introducción Tal vez estemos acostumbrados con algunas ideas de probabilidad, ya que esta forma parte de la cultura cotidiana. Con frecuencia escuchamos a personas que hacen afirmaciones

Más detalles

NÚMEROS NATURALES Y NÚMEROS ENTEROS

NÚMEROS NATURALES Y NÚMEROS ENTEROS NÚMEROS NATURALES Y NÚMEROS ENTEROS Los números naturales surgen como respuesta a la necesidad de nuestros antepasados de contar los elementos de un conjunto (por ejemplo los animales de un rebaño) y de

Más detalles

MUESTREO TIPOS DE MUESTREO

MUESTREO TIPOS DE MUESTREO MUESTREO En ocasiones en que no es posible o conveniente realizar un censo (analizar a todos los elementos de una población), se selecciona una muestra, entendiendo por tal una parte representativa de

Más detalles

1. Dominio, simetría, puntos de corte y periodicidad

1. Dominio, simetría, puntos de corte y periodicidad Estudio y representación de funciones 1. Dominio, simetría, puntos de corte y periodicidad 1.1. Dominio Al conjunto de valores de x para los cuales está definida la función se le denomina dominio. Se suele

Más detalles

Indicaciones específicas para los análisis estadísticos.

Indicaciones específicas para los análisis estadísticos. Tutorial básico de PSPP: Vídeo 1: Describe la interfaz del programa, explicando en qué consiste la vista de datos y la vista de variables. Vídeo 2: Muestra cómo crear una base de datos, comenzando por

Más detalles

hay alguien ahi? por Marcelino Alvarez maralvilla@gmail.com

hay alguien ahi? por Marcelino Alvarez maralvilla@gmail.com hay alguien ahi? por Marcelino Alvarez maralvilla@gmail.com Un repaso a las estadísticas de lectura tanto de la página web como de la revista digital, para ver si alguien se acuerda de nosotros. Ya podemos

Más detalles

342 SOBRE FORMAS TERNARIAS DE SEGUNDO GRADO.

342 SOBRE FORMAS TERNARIAS DE SEGUNDO GRADO. 342 SOBRE FORMAS TERNARIAS DE SEGUNDO GRADO. ALGUNAS APLICACIONES A LA TEORIA DE LAS FORMAS BINARIAS. Encontrar una forma cuya duplicación produce una forma dada del género principal. Puesto que los elementos

Más detalles

Cómo se sabe si una metodología científica es confiable y válida?

Cómo se sabe si una metodología científica es confiable y válida? Cómo se sabe si una metodología científica es confiable y válida? POR: Tupak Ernesto Obando Rivera Ingeniero en Geología. Master y Doctorado en Geología, y Gestión Ambiental por la Universidad Internacional

Más detalles

SISTEMAS NUMERICOS. Ing. Rudy Alberto Bravo

SISTEMAS NUMERICOS. Ing. Rudy Alberto Bravo SISTEMAS NUMERICOS SISTEMAS NUMERICOS Si bien el sistema de numeración binario es el más importante de los sistemas digitales, hay otros que también lo son. El sistema decimal es importante porque se usa

Más detalles

21/02/2012. Agenda. Unidad Central de Procesamiento (CPU)

21/02/2012. Agenda. Unidad Central de Procesamiento (CPU) Agenda 0 Tipos de datos 0 Sistemas numéricos 0 Conversión de bases 0 Números racionales o Decimales 0 Representación en signo-magnitud 0 Representación en complemento Unidad Central de Procesamiento (CPU)

Más detalles

La metodología operante se puede utiliza para probar problemas teóricos e hipótesis por medio de arreglos experimentales.

La metodología operante se puede utiliza para probar problemas teóricos e hipótesis por medio de arreglos experimentales. Skinner Skinner nació en 1904 en Susquehanna, Pennsylvania. Luego de fallar en sus intentos de ser escritor se cambió a la psicología, de lo cual sólo tenía una vaga idea. Obtuvo su doctorado en 1931.

Más detalles

Clases de apoyo de matemáticas Fracciones y decimales Escuela 765 Lago Puelo Provincia de Chubut

Clases de apoyo de matemáticas Fracciones y decimales Escuela 765 Lago Puelo Provincia de Chubut Clases de apoyo de matemáticas Fracciones y decimales Escuela 765 Lago Puelo Provincia de Chubut Este texto intenta ser un complemento de las clases de apoyo de matemáticas que se están realizando en la

Más detalles

Tema 11: Sistemas combinacionales

Tema 11: Sistemas combinacionales Tema 11: Sistemas combinacionales Objetivo: Introducción Generador Comprobador de paridad Comparadores Semisumador (HA) Sumador Completo (FA) Expansión de sumadores Sumador paralelo con arrastre serie

Más detalles

Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal

Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal Unidad 1 Sistemas de numeración Binario, Decimal, Hexadecimal Artículo adaptado del artículo de Wikipedia Sistema Binario en su versión del 20 de marzo de 2014, por varios autores bajo la Licencia de Documentación

Más detalles

Matemáticas para la Computación

Matemáticas para la Computación Matemáticas para la Computación José Alfredo Jiménez Murillo 2da Edición Inicio Índice Capítulo 1. Sistemas numéricos. Capítulo 2. Métodos de conteo. Capítulo 3. Conjuntos. Capítulo 4. Lógica Matemática.

Más detalles

ESTRUCTURAS ALGEBRAICAS 1

ESTRUCTURAS ALGEBRAICAS 1 ESTRUCTURAS ALGEBRAICAS Se da la relación entre dos conjuntos mediante el siguiente diagrama: (, ) (2, 3) (, 4) (, 2) (7, 8) (, ) (3, 3) (5, ) (6, ) (, 6)........ 5 6......... 2 5 i) Observa la correspondencia

Más detalles

Soluciones de los ejercicios de Selectividad sobre Probabilidad de Matemáticas Aplicadas a las Ciencias Sociales II

Soluciones de los ejercicios de Selectividad sobre Probabilidad de Matemáticas Aplicadas a las Ciencias Sociales II Soluciones de los ejercicios de Selectividad sobre Probabilidad de ntonio Francisco Roldán López de Hierro * Convocatoria de 2007 Las siguientes páginas contienen las soluciones de los ejercicios propuestos

Más detalles

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS

CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS Capitulo 6. Sistema de Detección de Intrusos con Redes Neuronales. 69 CAPITULO 6 SISTEMA DE DETECCION DE INTRUSOS USANDO REDES NEURONALES. En este capítulo se realiza la preparación adecuada de toda la

Más detalles

Herramienta Solver. Activar Excel Solver

Herramienta Solver. Activar Excel Solver Herramienta Solver Introducción: Solver forma parte de una serie de comandos a veces denominados herramientas de análisis Y si. Con Solver, puede encontrar un valor óptimo (mínimo o máximo) para una fórmula

Más detalles

Unidad 1. La información

Unidad 1. La información Unidad 1. La información En esta unidad aprenderás: Los conceptos básicos de la informática. Cómo se representa la información dentro del ordenador. Las unidades de información. 1.1 Conceptos básicos Informática.

Más detalles

Entender el funcionamiento de los relojes permitiría lidiar con ciertas patologías en humanos. 28 ACTUALIDAD EN I+D RIA / Vol. 41 / N.

Entender el funcionamiento de los relojes permitiría lidiar con ciertas patologías en humanos. 28 ACTUALIDAD EN I+D RIA / Vol. 41 / N. 28 ACTUALIDAD EN I+D RIA / Vol. 41 / N.º 1 Entender el funcionamiento de los relojes permitiría lidiar con ciertas patologías en humanos Abril 2015, Argentina 29 Relojes biológicos en plantas Ajustar el

Más detalles

4. Estadística Descriptiva

4. Estadística Descriptiva 4. Estadística Descriptiva En este apartado se presentan las estadísticas descriptivas obtenidas a través de la aplicación de las encuestas que han sido detalladas en la Metodología. 4.1 Estadísticas de

Más detalles

Roberto Quejido Cañamero

Roberto Quejido Cañamero Crear un documento de texto con todas las preguntas y respuestas del tema. Tiene que aparecer en él todos los contenidos del tema. 1. Explica qué son los modos de presentación en Writer, cuáles hay y cómo

Más detalles

Tema 4. La producción

Tema 4. La producción Tema 4 La producción Epígrafes La tecnología de la producción La producción con un factor variable (trabajo) Las isocuantas La producción con dos factores variables Los rendimientos a escala Cap. 6 P-R

Más detalles

Internet Information Server

Internet Information Server Internet Information Server Internet Information Server (IIS) es el servidor de páginas web avanzado de la plataforma Windows. Se distribuye gratuitamente junto con las versiones de Windows basadas en

Más detalles

PARA QUÉ NÚMEROS REALES... 2 SUCESIONES... 3 NÚMEROS COMPLEJOS... 5 CÓNICAS... 6 FUNCIÓN INVERSA... 7 FUNCIONES CUADRÁTICAS... 8

PARA QUÉ NÚMEROS REALES... 2 SUCESIONES... 3 NÚMEROS COMPLEJOS... 5 CÓNICAS... 6 FUNCIÓN INVERSA... 7 FUNCIONES CUADRÁTICAS... 8 PARA QUÉ SIRVE? Índice NÚMEROS REALES.... 2 SUCESIONES.... 3 SUCESIONES ARITMÉTICAS Y GEOMÉTRICAS.... 4 NÚMEROS COMPLEJOS.... 5 CÓNICAS.... 6 FUNCIÓN INVERSA.... 7 FUNCIONES CUADRÁTICAS.... 8 TEOREMA DE

Más detalles

Tema 2. La Información y su representación

Tema 2. La Información y su representación Tema 2. La Información y su representación 2.1 Introducción. Un ordenador es una máquina que procesa información. La ejecución de un programa implica la realización de unos tratamientos, según especifica

Más detalles

Polinomios y fracciones algebraicas

Polinomios y fracciones algebraicas UNIDAD Polinomios y fracciones algebraicas U n polinomio es una expresión algebraica en la que las letras y los números están sometidos a las operaciones de sumar, restar y multiplicar. Los polinomios,

Más detalles

Introducción a la Firma Electrónica en MIDAS

Introducción a la Firma Electrónica en MIDAS Introducción a la Firma Electrónica en MIDAS Firma Digital Introducción. El Módulo para la Integración de Documentos y Acceso a los Sistemas(MIDAS) emplea la firma digital como método de aseguramiento

Más detalles

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia.

DISCOS RAID. Se considera que todos los discos físicos tienen la misma capacidad, y de no ser así, en el que sea mayor se desperdicia la diferencia. DISCOS RAID Raid: redundant array of independent disks, quiere decir conjunto redundante de discos independientes. Es un sistema de almacenamiento de datos que utiliza varias unidades físicas para guardar

Más detalles

PARÁBOLA. 1) para la parte positiva: 2) para la parte negativa: 3) para la parte positiva: 4) para la parte negativa:

PARÁBOLA. 1) para la parte positiva: 2) para la parte negativa: 3) para la parte positiva: 4) para la parte negativa: Página 90 5 LA PARÁBOLA 5.1 DEFINICIONES La parábola es el lugar geométrico 4 de todos los puntos cuyas distancias a una recta fija, llamada, y a un punto fijo, llamado foco, son iguales entre sí. Hay

Más detalles

Tema 1. Representación de la información MME 2012-20131

Tema 1. Representación de la información MME 2012-20131 Tema 1 Representación de la información 1 Índice Unidad 1.- Representación de la información 1. Informática e información 2. Sistema de numeración 3. Representación interna de la información 2 Informática

Más detalles

Señal de Referencia: Es el valor que se desea que alcance la señal de salida. SET POINT.

Señal de Referencia: Es el valor que se desea que alcance la señal de salida. SET POINT. EL ABC DE LA AUTOMATIZACION ALGORITMO DE CONTROL PID; por Aldo Amadori Introducción El Control automático desempeña un papel importante en los procesos de manufactura, industriales, navales, aeroespaciales,

Más detalles

GANTT, PERT y CPM. Figura 5.3: Carta GANTT 3.

GANTT, PERT y CPM. Figura 5.3: Carta GANTT 3. GANTT, PERT y CPM Características Conseguir una buena programación es un reto, no obstante es razonable y alcanzable. Ella debe tener el compromiso del equipo al completo, para lo cual se recomienda que

Más detalles