Variables aleatorias Instituto Tecnológico Superior de Tepeaca Agosto-Diciembre 2015 Ingeniería en Sistemas Computacionales M.C. Ana Cristina Palacios García
Definición de variable aleatoria Las variables aleatorias son aquellas que tienen un comportamiento probabilístico en la realidad. Las variables aleatorias deben cumplir reglas de distribución de probabilidad como estas: La suma de las probabilidades asociadas a todos lo valores posibles de la variable aleatoria x es uno. La probabilidad de que un posible valor de la variable x se presente siempre es mayor que o igual a cero. El valor esperado de la distribución de la variable aleatoria es la media de la misma, la cual a su vez estima la verdadera media de la población. Si la distribución de probabilidad asociada a una variable aleatoria está definida por más de un parámetro, dichos parámetros pueden obtenerse mediante un estimador no sesgado. Ejemplo: la varianza de la población puede ser estimada usando la varianza r 2 de una muestra que es s 2. De la misma manera, la desviación estándar de la población r, puede estimarse mediante la desviación estándar de la muestra s.
Tipos de variables aleatorias Es posible diferenciar a las variables aleatorias dependiendo del tipo de valor aleatorio que representan. Ejemplo: si hablamos del número de clientes que solicitan cierto servicio en un periodo de tiempo determinado, podríamos encontrar valores tales como 0,1,2,,n, es decir, un comportamiento como el que presentan las distribuciones de probabilidad discretas. Por otro lado, si hablamos del tiempo que tarda en ser atendida una persona, nuestra investigación tal vez arrojaría resultados como 1.54 minutos, 0.028 horas o 1.37 días, es decir, un comportamiento similar al de las distribuciones de probabilidad continuas. Por tanto existen variables aleatorias discretas y variables aleatorias continuas.
Variables aleatorias discretas Estas variables debe cumplir los siguientes parámetros: Ejemplos de distribuciones discretas de probabilidad son: la uniforme discreta, la de Bernoulli, la hipergeométrica, la de Poison y la binomial. Es posible asocial a estas distribuciones de probabilidad el comportamiento de una variable aleatoria. Ejemplo: si nuestro propósito al analizar un muestreo de calidad consiste en decidir si la pieza bajo inspección es buena o no, estamos realizando un experimento con dos posibles resultados: la pieza es buena o la pieza es mala. Este tipo de comportamiento es asociado a una distribución de Bernoulli. Por otro lado, si lo que queremos es modelar el número de usuarios que llamarán a un teléfono de atención a clientes, el tipo de comportamiento puede llegar a parecerse a una distribución de Poisson. Incluso podría ocurrir que el comportamiento de la variable no se pareciera a otras distribuciones de probabilidad conocidas. Si fuera el caso, es válido usar una distribución empírica que se ajuste a las condiciones reales de probabilidad. Esta distribución puede ser una ecuación o una suma de términos que cumplan con las condiciones necesarias para ser consideradas una distribución de probabilidad.
Distribución de probabilidad uniforme discreta Es una distribución de probabilidad que asume un número finito de valores con la misma probabilidad. Propiedades: Si la distribución asume valores reales x1, x2,, xn, su función de probabilidad es: P(xi) = 1/n
Distribución de probabilidad de Bernoulli (1) Pruebas de Bernoulli Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resultados se agrupan en dos conjuntos excluyentes que llamaremos éxito(e) y fracaso(f), con respectivas probabilidades p = P(E) y 1-p = P(F). Ejemplos: En el lanzamiento de una moneda podemos tomar E={Cara} y F={Cruz]. Si la moneda no está trucada, p=1/2. En una población se elige al azar a una persona y consideramos los sucesos E={altura>= 1.80} y F={altura < 1.80}. La probabilidad de éxito dependerá de la distribución de la variable altura en la población. En el lanzamiento de un dado podemos tomar E={6} y F={1,2,3,4,5}. Si el dado es perfecto, p=1/6; si está trucado y por ejemplo, el 2 tiene probabilidad doble que cualquiera de los demás resultados, p=1/7. La distribución de Bernoulli es el modelo más sencillo obtenido a partir de pruebas de Bernoulli.
Distribución de probabilidad de Bernoulli (2) Definición: realizada una prueba de Bernoulli con P(E)=p se considera la variable aleatoria como: La función de masa es: P(X=0)=1-p y P(X=1)=p. Los parámetros esperanza y varianza de una variable X con distribución de Bernoulli son: Obtenidos ambos de manera sencilla a partir de la definición.
Distribución binomial (1) Definición: supongamos que realizamos n pruebas de Bernoulli independientes, con P(E)=p en cada prueba. Sea X la variable número de éxitos obtenidos en las n pruebas. Llamaremos distribución binomial a la distribución de esta variable X. Denotaremos por B(n;p) a la distribución binomial de parámetros n = número de pruebas de Bernoulli y p=p(e) en cada prueba. Si X sigue una distribución B(n;p), escribimos X~B(n;p), su función de masa es:
Distribución binomial (2) Ejemplos: Se lanza un dado 10 veces y se cuenta el número X de tres obtenidos: entonces X~B(10,1/6). Se lanza una moneda dos veces y se cuenta el número X de caras obtenidas: entonces X~B(2,1/2). En este caso, la probabilidad de un experimento no depende de otro. El resultado de cada experimento ha de admitir sólo dos categorías (éxito o fracaso). Las probabilidades de ambas posibilidades son constantes en todos los experimentos, y se denotan por p y q (p y 1-p). Se designa por X a la variable que mide el número de éxitos que se han producido en los n experimentos. Cuando se dan estas circunstancias, se dice que la variable X sigue una distribución de probabilidad binomial, y se denota B(n,p).
Distribución binomial (3) Características:
Distribución de Poisson(1) Expresa a partir de una frecuencia de ocurrencia media, la probabilidad de que ocurra un determinado número de eventos durante cierto periodo de tiempo. Se especializa en la probabilidad de ocurrencia de sucesos con probabilidades muy pequeñas, o sucesos raros. Propiedades: La función de masa o probabilidad de la distribución de Poisson es: Donde k es el número de ocurrencias del evento o fenómeno (la función nos da la probabilidad de que el evento suceda precisamente k veces). λ es un parámetro positivo que representa el número de veces que se espera que ocurra el fenómeno durante un intervalo dado. Ejemplo: si el suceso tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10 4 = 40 e es la base del logaritmo natural (e = 2.71828 ).
Distribución de Poisson(2) Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ.
Variables aleatorias continuas (1) Estas variables se representan mediante una ecuación que se conoce como función de densidad de probabilidad. Dada esta condición, cambiamos el uso de la sumatoria por la de una integral para conocer la función acumulada de la variable aleatoria. Por tanto, las variables aleatorias continuas deben cumplir los siguientes parámetros: Entre las distribuciones de probabilidad tenemos la uniforme continua, la exponencial, la normal la de Weibull, la Chi-cuadrada y la de Erlang.
Variables aleatorias continuas (2)
Variables aleatorias continuas (3) Ejemplo: Es posible que el tiempo de llegada de cada cliente a un sistema tenga una distribución de probabilidad muy semejante a una exponencial, o que el tiempo que le toma a un operario realizar una serie de tareas se comporte de manera muy similar a la dispersión que presenta una distribución normal. Sin embargo, debemos hacer notar que este tipo de distribuciones tienen sus desventajas, dado que el rango de valores posibles implica que existe la posibilidad de tener tiempos infinitos de llegada de clientes o tiempos de ensamble infinitos, situaciones lejanas a la realidad.
Generación de variables aleatorias Los principales métodos para generar variables aleatorias son: Método de la transformada inversa. Método de convolución. Método de composición. Método de la transformada directa.
Método de la transformada inversa (1) Se utiliza para simular variables aleatorias continuas, lo cual se logra mediante la función acumulada f(x) y la generación de números pseudoaleatorios r i. El método consiste en: Definir la función de densidad F(x) que represente la variable a modelar. Calcular la función acumulada F(x). Despejar la variable aleatoria x y obtener la función acumulada inversa F(x) -1. Generar las variables aleatorias x, sustituyendo valores con números pseudoaleatorios r i en la función acumulada inversa.
Método de la transformada inversa (2) El método de la transformada inversa también puede emplearse para simular variables aleatorias de tipo discreto, como en las distribuciones de Poisson, de Bernoulli, binomial, geométrica, discreta general, etc. La generación se lleva a cabo a través de la probabilidad acumulada P(x) y la generación de números pseudoaleatorios r i. El método es el siguiente: Calcular todos los valores de la distribución de probabilidad p(x) de la variable a modelar. Calcular todos los valores de la distribución acumulada P(x). Generar números pseudoaleatorios r i. Comparar con el valor P(x) y determinar qué valor de x corresponde a P(x).
Método de la transformada inversa (3) Figura. Esquematización del método de la transformada inversa para variables continuas.
Método de la transformada inversa (4) Figura. Esquematización del método de la transformada inversa para variables discretas.
Ejemplo: La temperatura de una estufa se comporta uniformemente dentro del rango de 95 q 100 C. Una lista de números pseudoaleatorios y la ecuación xi=95+5r i nos permite modelar el comportamiento de la variable aleatoria que simula la temperatura de la estufa.
Distribución de Poisson Supongamos que estamos interesados en estudiar el número de éxitos obtenidos en un número grande de pruebas independientes de Bernoulli, teniendo una probabilidad pequeña de éxito en cada prueba. Es razonable pensar que la distribución venga dada como límite de una distribución B(n;p) con n, p 0. Si se tiene cierto control sobre el producto np, digamos np λ < cuando n y p 0, podemos calcular el límite. Surge así la distribución de Poisson de parámetro λ > 0 definida por la función de masa: