Maestría en Bioinformática Probabilidad y Estadística: Clase 3 Gustavo Guerberoff gguerber@fing.edu.uy Facultad de Ingeniería Universidad de la República Abril de 2010
Contenidos 1 Variables aleatorias discretas Distribución de Poisson 1 Vectores aleatorios Distribución Multinomial 2 Independencia de variables aleatorias 2 Valor esperado Propiedades del valor esperado Ejemplos de valor esperado 2 Varianza Propiedades de la varianza
Distribución de Poisson Definición Una variable de Poisson de parámetro α, donde α > 0, es una variable aleatoria cuyos valores posibles son {0, 1, 2, 3,...}, con P(X = k) = αk k! e α, para k = 0, 1, 2, 3,.... Observación: La distribución de Poisson se obtiene como límite de la distribución Binomial, cuando n y p 0 con np = α.
Histograma de probabilidad de una variable Poisson de parámetro α = 10. dpois(x, 10) 0.00 0.02 0.04 0.06 0.08 0.10 0.12 0 10 20 30 40 50 x
Vectores aleatorios Consideremos k variables aleatorias, X 1, X 2,..., X k, definidas sobre Ω. Esas variables pueden agruparse en un vector de k componentes Definición X = (X 1, X 2,..., X k ). Un vector aleatorio es una función X : Ω R k. Observación: Los vectores aleatorios discretos (es decir, aquellos formados por variables discretas) quedan caracterizados por los valores posibles y por sus respectivas probabilidades conjuntas: P(X 1 = a 1, X 2 = a 2,..., X k = a k ), donde (a 1, a 2,..., a k ) es un vector de valores posibles.
Ejemplo: Consideremos una partición de Ω en k sucesos o categorías, {C 1, C 2,..., C k }, con P(C i ) = p i, para cada i = 1, 2,..., k. Obviamente p 1 + p 2 +... + p k = 1. Consideremos el experimento aleatorio que consiste en tomar un elemento al azar de Ω y ver a qué categoría pertenece. Repetimos n veces de manera independiente ese experimento y denotamos: X 1 = Cantidad de resultados en C 1 X 2 = Cantidad de resultados en C 2...... X k = Cantidad de resultados en C k
Distribución Multinomial El conjunto de valores posibles para cada una de las variables es {0, 1, 2,..., n}. Sin embargo las variables deben cumplir la condición: k i=1 X i = n. Si (m 1, m 2,..., m k ) es un vector tal que m i {0, 1, 2,..., n}, para cada i = 1, 2,..., k, y k i=1 m i = n, entonces: P(X 1 = m 1, X 2 = m 2,..., X k = m k ) = n! m 1!m 2!... m k! pm 1 1 pm 2 2... pm k k. Definición Decimos en tal caso que el vector aleatorio X = (X 1, X 2,..., X k ) tiene distribución Multinomial de parámetros n y p 1, p 2,..., p k.
Independencia de variables aleatorias Consideremos dos variables aleatorias, X e Y, caracterizadas por los valores posibles {a 1, a 2,..., a m }, {b 1, b 2,..., b n }, y por sus respectivas probabilidades. Definición Decimos que las variables X e Y son independientes si se cumple: P(X = a i, Y = b j ) = P(X = a i )P(Y = b j ) para cada i = 1, 2,... m, j = 1, 2,..., n. A la probabilidad que aparece del lado izquierdo se le llama probabilidad conjunta y a las que aparecen del lado derecho probabilidades marginales.
Valor esperado Notemos que las marginales se pueden calcular a partir de la conjunta; por ejemplo: P(X = a) = n P(X = a, Y = b j ). j=1 A continuación introducimos el concepto de Valor Esperado de una variable aleatoria. Consideremos una variable aleatoria discreta X con valores posibles {a 1, a 2,..., a r }. Definición El Valor Esperado de X se define de la siguiente manera: E(X) = r a i P(X = a i ). i=1
Propiedades del valor esperado Observación: En el caso de que haya infinitos valores posibles para la variable X es necesario pedir que la suma sea convergente para que E(X) esté definido. Propiedades del valor esperado: 1) Si X es una variable aleatoria y α R entonces: E(αX) = αe(x). 2) Si X e Y son variables aleatorias entonces: E(X + Y ) = E(X) + E(Y ). 3) Si X es una variable aleatoria con valores posibles {a 1, a 2,..., a r } y g : R R entonces E(g(X)) = r i=1 g(a i)p(x = a i ). 4) Si X e Y son variables aleatorias independientes entonces: E(XY ) = E(X)E(Y ).
Demostración de 4): Si los valores posibles de X y de Y son, respectivamente, {a 1, a 2,..., a m } y {b 1, b 2,..., b n }, entonces está claro que los valores posibles de XY son de la forma a i b j y además: E(XY ) = m i=1 j=1 n a i b j P(X = a i, Y = b j ). Usando independencia de las variables X e Y se tiene: m n E(XY ) = a i b j P(X = a i )P(Y = b j ) = i=1 j=1 m a i P(X = a i ) i=1 j=1 = E(X)E(Y ) n b j P(Y = b j )
Ejemplos de valor esperado A continuación se dan los valores esperados de cada una de las variables aleatorias discretas que consideramos anteriormente. Ejemplos Si X Ber(p) entonces E(X) = p. Si X Bin(n, p) entonces E(X) = np. Si X Geo(p) entonces E(X) = 1 p. Si X Poisson(α) entonces E(X) = α.
Varianza Definición La Varianza de una variable aleatoria X se define de la siguiente manera: var(x) = E(X E(X)) 2. La varianza es un número positivo que mide la dispersión de una variable aleatoria alrededor de su valor esperado. Observación: (X E(X)) 2 = X 2 + E 2 (X) 2XE(X). Usando propiedades del valor esperado se obtiene: var(x) = E(X 2 ) E 2 (X).
Propiedades Propiedades de la varianza: 1) Si X es una variable aleatoria y α R entonces: var(αx) = α 2 var(x). 2) Si X e Y son variables aleatorias independientes entonces: var(x + Y ) = var(x) + var(y ).