Unidad III Variables Aleatorias Unidimensionales



Documentos relacionados
DISTRIBUCIONES DE PROBABILIDAD

3. VARIABLES ALEATORIAS

Variable Aleatoria. Relación de problemas 6

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

5. VARIABLES ALEATORIAS Y SUS MOMENTOS

Variables aleatorias unidimensionales

MODELO DE RESPUESTAS Objetivos del 1 al 9

Teorema de Bayes. mientras que B tiene una tasa de defectos del 4%.

4. Medidas de tendencia central

7. Distribución normal

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN)

Distribución muestral de proporciones. Algunas secciones han sido tomadas de: Apuntes de Estadística Inferencial Instituto Tecnológico de Chiuhuahua

Distribución de Probabilidad Normal

MEDIDAS DE ASIMETRÍA Y CURTOSIS EMPLEANDO EXCEL

2.5. Asimetría y apuntamiento

Medidas de Dispersión

3. Variables aleatorias

Probabilidad. Distribuciones binomial y normal

Tema 5: Principales Distribuciones de Probabilidad

2. Probabilidad y. variable aleatoria. Curso Estadística Probabilidad. Probabilidad y variable aleatoria

Variables aleatorias

Teoría de la decisión Estadística

Soluciones Examen de Estadística

Estadística Avanzada y Análisis de Datos

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Polinomios. 1.- Funciones cuadráticas

ESTADÍSTICA BÁSICA Dirección Redes en Salud Pública

Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones

Probabilidad y Estadística

Tema 3: Cálculo de Probabilidades Unidad 2: Variables Aleatorias

La distribución t de student. O lo que es lo mismo: La relación entre la cerveza y los estudios de estadística

Distribución de Probabilidades con Nombre Propio Problemas Propuestos

PRÁCTICA 1. Mediciones

Tema 4: Variable aleatoria. Métodos Estadísticos

ÍNDICE CAPITULO UNO CAPITULO DOS. Pág.

Introducción al Tema 9

Tema 4: Variables aleatorias.

Propiedades en una muestra aleatoria

Tema 5. Variables Aleatorias

Selectividad Junio 2007 JUNIO 2007

Distribución Normal Curva Normal distribución gaussiana

Probabilidades. 11 de noviembre de Felipe Bravo Márquez

Análisis de Datos CAPITULO 3: MEDIDAS DE VARIABILIDAD Y ASIMETRÍA

Test de Kolmogorov-Smirnov

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL

Tema 5. Muestreo y distribuciones muestrales

Experimento de lanzar 3 monedas al aire. Denominando por (C) a Cara y (X) a Cruz, el espacio muestral será: Ω={CCC,CCX,CXC,XCC,CXX,XCX,XXC,XXX}

DISTRIBUCIONES DE PROBABILIDAD

Hemos visto que si se tira una moneda (con p = P (cruz)) n veces, entonces el número de cruces se distribuye como binomial.

Estadistica II Tema 1. Inferencia sobre una población. Curso 2009/10

C. Distribución Binomial

LA FUNCIÓN VARIABLE ALEATORIA (va.)

Ejercicios de Vectores Aleatorios

RIESGO Y RENDIMIENTO RIESGO Y RENDIMIENTO RIESGO Y RENDIMIENTO RIESGO Y RENDIMIENTO RIESGO Y RENDIMIENTO RIESGO Y RENDIMIENTO. M.Sc. Roberto Solé M.

Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.

4.1. Definición de variable aleatoria. Clasificación.

Muestreo y Distribuciones muestrales. 51 SOLUCIONES

Variables aleatorias

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

ESTADISTICA INFERENCIAL

TEMA 2.- VARIABLES ALEATORIAS

Tema 6 - Introducción. Tema 5. Probabilidad Conceptos básicos. Interpretación y propiedades básicas Probabilidad condicional y reglas de cálculo.

x R F (x) := P (X 1 (, x]) = P ({e Ω : X(e) x}) = P (X x) salvo que en este caso esta función es siempre una función continua.

Variables aleatorias

Distribuciones Dis de Probabilidad Pr Contínuas Jhon Jairo Jair Pa P dilla a Aguilar, Aguilar PhD. PhD

Tema 2: Estadísticos

Definición: Se llama variable aleatoria a toda función X que asigna a c/u de los elementos del espacio muestral S, un número Real X(s).

Probabilidades y la curva normal

INTERVALO DE CONFIANZA PARA LA PROPORCIÓN

Tema 5. Variables aleatorias continuas

APUNTES DE PROBABILIDAD Y ESTADISTICA ING. GUILLERMO CASAR MARCOS

Requisitos Matemáticos. Clase 01. Profesor: Carlos R. Pitta. ICPM050, Econometría. Universidad Austral de Chile Escuela de Ingeniería Comercial

Distribuciones de Probabilidad Para Variables Aleatorias Continuas

Pruebas de bondad de ajuste

Distribución de probabilidad

La distribución Normal

Tema 11: Intervalos de confianza.

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

Distribuciones de Probabilidad para Variables Aleatorias Discretas 1

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Dr. Mauro Gutierrez Martinez Dr. Christiam Gonzales Chávez

Técnicas Cuantitativas para el Management y los Negocios I

Análisis estadístico básico (I) Magdalena Cladera Munar Departament d Economia Aplicada Universitat de les Illes Balears

Anexo C. Introducción a las series de potencias. Series de potencias

Variables aleatorias. Descripción breve del tema. Objetivos. Descripción breve del tema. Tema 4

Explorando la ecuación de la recta pendiente intercepto

Si quisiéramos estudiar también cuánto distan, es decir a b, tendríamos 6 resultados: 0, 1, 2, 3, 4 ó 5, con distribución de probabilidad dada por:

El promedio como punto típico de los datos es el valor al rededor del cual se agrupan los demás valores de la variable.

Tema 12: Distribuciones de probabilidad

Distribución Normal. Universidad Diego Portales Facultad de Economía y Empresa. Estadística I Profesor: Carlos R. Pitta

D.2 ANÁLISIS ESTADÍSTICO DE LAS TEMPERATURAS DE VERANO

El supermercado XYZ desea conocer el comportamiento del mismo en una sola hora de un día típico de trabajo.

ANÁLISIS CUANTITATIVO DE DATOS EN CIENCIAS SOCIALES CON EL SPSS (I) Tablas de contingencia y pruebas de asociación

DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL

EJERCICIOS DE CONTINUIDAD Y APLICACIONES DE LA DERIVADA

Teoría de la estimación

P (X 5) = P (x = 5) + P (X = 6) + P (X = 7) + P (X = 8) = =

Curso de Probabilidad y Estadística

PARTE II: MUESTREO CONCEPTOS BÁSICOS MÉTODOS DE MUESTREO NÚMERO DE MUESTRAS DISTRIBUCIONES MUESTRALES...

VARIABLES ALEATORIAS Y DISCTRIBUCIÓN DE PROBABILIDAD

Transcripción:

Unidad III Variables Aleatorias Unidimensionales En el capítulo anterior se examinaron los conceptos básicos de probabilidad con respecto a eventos que se encuentran en un espacio muestral. Los experimentos conciben de modo que los resultados del espacio muestral son cualitativos o cuantitativos. Ejemplos de resultados cualitativos: a) el lanzamiento de una moneda arroja cara o sello, b) un producto manufacturado puede ser defectuoso o no defectuoso, c) una persona puede preferir el perfume A o B. Puede ser útil la cuantificación de los resultados cualitativos de un espacio muestral y, mediante el empleo de medidas numéricas, estudiar su comportamiento aleatorio. El concepto de variable aleatoria proporciona un medio para relacionar cualquier resultado con una medida cuantitativa. Una variable aleatoria es una función de valor real cuyo dominio es un espacio muestral. Ejemplo 1: Supongamos el lanzamiento de una moneda, los estados posibles son cara o sello ; su espacio muestral Ω = { cara, sello }. Sea X(sello) = 0, y X(cara) = 1, de esta manera transformamos los dos resultados posibles del espacio muestral en puntos sobre la recta de los reales. Por P(X = 0) se entenderá la probabilidad de que la variable aleatoria X tome el valor 0; de manera equivalente, la probabilidad de que caiga sello cuando se lance la moneda. Ejemplo 2: Consideremos el lanzamiento de dos dados equilibrados, el espacio muestral contiene 36 resultado posibles, tal como se muestra en la tabla. Sea la variable aleatoria X la suma de los valores de los dos dados. La tabla siguiente muestra el espacio muestral, el valor de la variable aleatoria y su probabilidad: Espacio muestral Variable aleatoria X Frecuencia Probabilidad (1, 1) 2 1 1/36 (1, 2), (2, 1) 3 2 2/36 (1, 3), (2, 2), (3, 1) 4 3 3/36 (1, 4), (2, 3), (3, 2), (4, 1) 5 4 4/36 (1, 5), (2, 4), (3, 3), (4, 2), (5, 1) 6 5 5/36 (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) 7 6 6/36 (2, 6), (3, 5), (4, 4), (5, 3), (6, 2) 8 5 5/36 (3, 6), (4, 5), (5, 4), (6, 3) 9 4 4/36 (4, 6), (5, 5), (6, 4) 10 3 3/36 (5, 6), (6, 5) 11 2 2/36 (6, 6) 12 1 1/36 La naturaleza probabilística de la variable aleatoria X, suma de caras de dos dados, puede observarse al graficar cada valor de X con su respectiva probabilidad Las variables aleatorias se representan mediante 0,14 0,12 mayúsculas, ejemplos X, Y y Z. Los valores numéricos 0,10 reales que puede asumir una variable aleatoria se 0,08 0,06 representarán mediante minúsculas, ejemplos, x, y y z. Se 0,02 puede decir la probabilidad de que X tome el valor x, y 0,00 se denota como P(X = x) o p(x). Probabilidad Distribución de Probabilidades para X (suma de caras de dos dados) 0,18 0,16 0,04 1/36 En el ejemplo del lanzamiento de la moneda, la variable aleatoria X sólo tiene 2 valores posibles; es sencillo determinar las probabilidades de esos valores (P(X = 1) = ½. A una variable aleatoria con esas características se le llama discreta. 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 2 3 4 5 6 7 8 9 10 11 12 x 1/36

Se dice que una variable aleatoria X es discreta si puede tomar sólo un número finito, o infinito numerable, de valores posibles x. En este caso, ¾ P(X = x) = p(x) 0. ¾ x P(X = x) = 1, siendo la sumatoria con respecto a todos los valores posibles de x A la función p(x) se le llama función de probabilidad de X. La función de distribución acumulativa de la variable aleatoria X es la probabilidad de que X sea menor o igual a un valor específico de x, y está dada por: F(x) = P(X x) = p(x i ) 0 x i x El termino más general Distribución de Probabilidad, se refiere a la colección de valores de la variable aleatoria, a la función de probabilidad, y también a la existencia de la función de distribución acumulada de X, F(x). Por lo tanto, en el caso discreto, una variable aleatoria X está caracterizada por la función de probabilidad p(x), la cual determina la probabilidad puntual de que X = x, y por la función distribución acumulativa F(x), la que representa la suma de las probabilidades puntuales hasta el valor x de X inclusive. Ejemplo 3: Consideremos de nuevo el lanzamiento de dos dados. Si X es la variable aleatoria que representa la suma de las dos caras, la función de probabilidad de X es p(x) = 6-7 x x = 2, 3,..., 12 36. Esta función permite determinar las probabilidades para los valores de X, que se resumen en la tabla del ejemplo 2. Además, puede evaluarse la función de distribución acumulativa de X de la siguiente forma: F( 1) = P(X 1) = 0 F( 2) = P(X 2) = 1/36 F( 3) = P(X 3) = 3/36 F( 4) = P(X 4) = 6/36... F(11) = P(X 11) = 35/36 F(12) = P(X 12) = 1 Además, P(X > 7) = 1 P(X 7) = 1 F(7) = 15/36 P( 5 X 9) = P(X 9) P(X 4) = F(9) F(4) = 24/36 En general, la función de distribución acumulativa F(X) de una variable aleatoria discreta es una función no decreciente de los valores de X, de tal manera que:

1. 0 F(x) 1, para cualquier x 2. F( x i ) F( x j ), si x i x j 3. P(X > x) = 1 F(x) Además puede establecerse que para variables aleatorias de valor entero se tiene: 4. P(X = x) = F(x) F(x 1) 5. P(x i X x j ) = F( x i ) F( x i 1) En el caso discreto, se asignan probabilidades positivas a todos los valores puntuales de la variable aleatoria, pero la suma de todas ellas es uno aún a pesar de que el conjunto sea infinito numerable; para el caso continuo, lo anterior no es posible, la probabilidad de que una variable aleatoria continua X tome un valor específico x es cero. La distribución de probabilidad de una variable aleatoria continua X está caracterizada por una función f(x) que recibe el nombre de función de densidad de probabilidad. Como la probabilidad de que X tome un valor específico es cero, la función permite determinar la probabilidad de un intervalo a X b. Se dice que una variable aleatoria X es continua si puede tomar un número infinito de valores posibles asociados con intervalos de números reales, y hay una función f(x), llamada la función de densidad de probabilidad, tal que: ¾ f(x) 0, para todo x ¾ f(x) dx = 1 - b ¾ P(a X b) = f(x) dx a f(x) a b x La probabilidad P(a X b) representa el área bajo f(x) en el intervalo [a, b], y el área total bajo f(x) es uno. Al igual que en el caso discreto, la función de distribución acumulativa de una variable aleatoria continua X es la probabilidad de que X tome un valor menor o igual a algún a específico. Esto es, a P( X a) = F(a) = f(x) dx -

f(x) a x Dado que para cualquier variable aleatoria continua X, P(X = x) = 0, entonces P(X x) = P( X < x ) = F(x) Ejemplo 4: la variable aleatoria X representa el intervalo de tiempo entre dos llegadas consecutivas a una tienda y su función de densidad de probabilidad está dada por: f(x) = k e x/2 x > 0 Determine k, Cuál es la probabilidad de que el tiempo esté entre 2 y 6 minutos?. Cuál es la probabilidad de que transcurran menos de 8 minutos?, Cuál es la probabilidad de que transcurran mas de 8 minutos?. Ejemplo 5: la variable aleatoria que representa la proporción de accidentes automovilísticos fatales tiene la siguiente función de densidad: f(x) = 42x(1 x) 5 0 x 1 Cuál es la probabilidad de que no más del 25% de los accidentes automovilísticos sean fatales?. En otras palabras, cuál es P(X 0.25)? La probabilidad la podemos interpretar como la frecuencia relativa a largo plazo de que suceda un evento, la distribución de probabilidades entonces es la frecuencia relativa a largo plazo de los resultados numéricos asociados con un experimento. En relación con lo anterior, podemos considerar el valor promedio de una variable aleatoria después de un número grande de experimentos como su valor esperado. El valor esperado ( o esperanza) de una variable aleatoria es un concepto muy importante en el estudio de las distribuciones de probabilidades. Este término tiene sus orígenes en los juegos de azar, debido a que los apostadores deseaban saber cuál era su esperanza de ganar repetidamente un juego, en este sentido, el valor esperado representa la cantidad de dinero promedio que el jugador está dispuesto a ganar o perder después de un número grande de apuestas.

Ejemplo 6: supóngase que se tiene una moneda normal y el jugador tiene tres oportunidades para que al lanzarla aparezca una cara. El juego termina en el momento en el que cae una cara o después de tres intentos, lo que suceda primero. Si en el primero, segundo o tercer lanzamiento aparece cara el jugador recibe $2, $4, y $8 respectivamente. Si no cae cara en ninguno de los tres lanzamientos, pierde $20. Sea X la variable aleatoria que representa la cantidad que se gana o se pierde cada vez que se juega. Después de un número grande de juegos se espera ganar $2 en uno de dos juegos, $4 en cualesquiera de cuatro juegos, $8 en uno de cada 8 juegos, y se espera perder $20 una vez cada 8 juegos. El valor esperado, o la cantidad promedio que se ganaría en cada juego después de un numero grande de intentos, se determina multiplicando cada cantidad que se gana/pierde por su respectiva probabilidad y sumando los resultados. De acuerdo con esto, la esperanza de ganar es $2 * (1/2) + $4 * (1/4) + $8 * (1/8) + (-$20)*(1/8) = $0.50 por juego. El valor esperado de una variable aleatoria X es el promedio o valor medio de X, y está dado por: ¾ E [X] = x p(x) si x es discreta ¾ E[X] = x f(x) dx si x es continua - en donde p(x) y f(x) son las funciones de probabilidad y de densidad de probabilidad, respectivamente. Ejemplo 7: sea la variable aleatoria X, definida en el ejemplo 2 (la suma en el lanzamiento de dos dados), compruebe que E[X] = 7. Ejemplo 8: para el ejemplo 5, determinar el valor esperado de la proporción de accidentes fatales. En general, el valor esperado de una función g(x) de la variable aleatoria X, está dado por: ¾ E [g(x)] = g(x) p(x) si x es discreta ¾ E[g(X)] = g(x) f(x) dx si x es continua - Ejemplo 9: suponga que el tiempo necesario para reparar una pieza de equipo, en un proceso de manufactura, es una variable aleatoria cuya función de densidad de probabilidad es: f(x) = 1/5 e x/5 x > 0 si la pérdida de dinero es igual al cuadrado del número de horas necesario para llevar a cabo la reparación, se debe determinar el valor esperado de las pérdidas por reparación. En este caso es necesario calcular el valor esperado de una función que se encuentra relacionada con la variable aleatoria (el tiempo de reparación). Esta función es: g(x) = x 2,

La esperanza de una variable aleatoria X no es una función de X sino un número fijo y una propiedad de la distribución de probabilidad de X. Por otra parte, el valor esperado puede no existir dependiendo de si la correspondiente suma o integral no converge en un valor finito. Ejemplo 10: Un inversionista dispone de $100.000 para una inversión de un año. El inversionista está considerando dos opciones: colocar el dinero en el mercado de valores, lo que le garantiza una ganancia anual fija del 15% y un plan de inversión cuya ganancia anual puede considerarse como una variable aleatoria cuyos valores dependen de las condiciones económicas que prevalezcan. Basándose en la historia pasada del segundo plan, un analista muy confiable ha determinado los posibles valores de la ganancia y calculado sus probabilidades, de acuerdo a la tabla. Ganancia (%) Probabilidad 30 0.20 25 0.20 20 0.30 15 0.15 10 0.10 5 0.05 Con base en la ganancia esperada, cuál de los dos planes debe seleccionarse?. Propiedades. ¾ E[c] = c, donde c es una constante. ¾ E[aX + b] = ae[x] + b, donde a, b constantes. ¾ E[g(X) + h(x)] = E[g(X)] + E[h(X)] Los momentos de una variable aleatoria X, son los valores esperados de ciertas funciones de X. Estos forman una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos los momentos de X son conocidos. Los momentos pueden definirse alrededor de cualquier punto de referencia, pero generalmente se definen alrededor del cero o del valor esperado de X. Sea X una variable aleatoria. El r-ésimo momento de X alrededor del cero se define por: ¾ µ r = E [X r ] = x x r p(x) si x es discreta ¾ µ r = E [X r ] = x r f(x) dx si x es continua - El primer momento alrededor de cero es la media o valor esperado de la variable aleatoria X y se denota por µ ; de esta manera se tiene que µ = µ 1 = E [X]. Sea X una variable aleatoria. El r-ésimo momento central o momento alrededor de la media de X, se define por: ¾ µ r = E [X µ] r = x (x µ) r p(x) si X es discreta ¾ µ r = E [X µ] r = (x µ) r f(x) dx si X es continua -

Veamos que ocurre con los primeros momentos centrales de cualquier variable aleatoria: µ 0 = E [X µ] 0 = E[1] = 1 µ 1 = E [X µ] 1 = E[X] µ = 0 µ 2 = E [X µ] 2 = Var[X] = µ 2 µ 2 = σ 2 que corresponde a la Varianza de la variable aleatoria. Tal como se muestra, se puede calcular como el segundo momento alrededor del origen menos el cuadrado de la media. Tal como hemos visto, la varianza mide el grado de dispersión de la distribución, esto es, si la mayor parte del área por debajo de la curva de distribución se encuentra cercana a la media, la varianza es pequeña; si la mayor parte del área se encuentra muy dispersa alrededor de la media, la varianza será grande. Sabemos que la raíz cuadrada positiva de la varianza recibe el nombre de desviación estándar σ, y también permite medir el grado de dispersión de los datos, además está expresado en la misma escala de los datos originales. Otra medida que permite comparar loa dispersión relativa de dos distribuciones de probabilidad es el coeficiente de variación, que está definido por: CV = σ /µ Este coeficiente expresa la magnitud de la dispersión de una variable aleatoria con respecto a su valor esperado, el CV es una medida estandarizada de la variación con respecto a la media, especialmente útil para comparar dos distribuciones de probabilidad cuando la escala de medición difiere de manera apreciable entre éstas. Ejemplo 11: Supongamos las variables aleatorias X e Y, que tienen los siguientes parámetros: E(X) = 120, Var(X) = 36; E(Y) = 40, Var(Y) = 16 A pesar de que la dispersión de X es más grande que la de Y en un sentido absoluto (Var(X) = 120 > Var(Y) = 16); la dispersión relativa de X es menor que la dispersión relativa de Y, puesto que CV X = 0.05 < CV X = 0.10. De la misma manera podemos analizar los momentos centrales de orden superior de una variable aleatoria. El tercer momento central µ 3 = E [X µ] 3 está relacionado con la asimetría de la distribución de probabilidad de X. A partir del desarrollo del binomio, podemos encontrar que el término de la asimetría es: µ 3 = µ 3 3 µ µ 2 + 2 µ 3 entonces, si µ 3 < 0, se dice que la distribución es asimétrica negativa, si µ 3 > 0, se dice que la distribución es asimétrica positiva, y si µ 3 = 0, la distribución es simétrica. Este estadígrafo presenta dos problemas: a) permite analizar la distribuciones unimodales; b) depende de las unidades en las que se mide la variable aleatoria X, en este caso se recomienda utilizar el tercer momento estandarizado, α 3 = µ 3 /(µ 2 ) 3/2 que recibe el nombre de coeficiente de asimetría. α 3 > 0 Asimetría positiva α 3 < 0 Asimetría positiva α 3 = 0 Simétrica

El cuarto momento central µ 4 = E [X µ] 4 = µ 4 4 µ µ 3 + 6µ 2 µ 2 3 µ 4 es una medida de que tan puntiaguda es la distribución de probabilidad y recibe el nombre de curtosis. Al igual que en el caso del tercer momento es preferible utilizar la estandarización: α 4 = µ 4 /µ 2 2 si α 4 > 3, la distribución de probabilidad presenta un máximo relativamente alto y recibe el nombre de leptocúrtica; si α 4 < 3, la distribución es relativamente plana y recibe el nombre de platicúrtic,; y si α 4 = 3, la distribución no presenta un máximo ni muy alto ni muy plano y recibe el nombre de mesocúrtica. α 4 > 3 leptocúrtica α 4 < 3 platicúrtica α 4 = 3 mesocúrtica el valor de 3 se utiliza como una referencia debido a que en la práctica la curtosis estandarizada de una distribución de probabilidad se compara con la de una distribución normal, cuyo valor es tres. Ejemplo 12. Dos vendedores de seguro de vida, A y B, visitan de 8 a 12 clientes potenciales por semana, respectivamente. Sean X e Y dos variables aleatorias que representan el número de seguros vendidos por A y B, como resultado de las visitas. Basándose en una gran cantidad de información pasada, las probabilidades para los valores de X e Y son: x 0 1 2 3 4 5 6 7 8 p(x) 0.02 0.09 0.21 0.28 0.23 0.12 0.04 0.01 0 y 0 1 2 3 4 5 6 7 8 9 10 11 12 p(y) 0.06 0.21 0.28 0.24 0.13 0.05 0.02 0.01 0 0 0 0 0 Comparar y contrastar las distribuciones de probabilidades de X e Y utilizando los estadígrafos que sean necesarios. Ejemplo 13. Considérese las variables aleatorias X e Y, cuyas funciones de densidad de probabilidad son: y f(x) = f(y) = 1/30 80 x 110 1/10.000 e (-y/10.000) y > 0 Determinar y comparar las distribuciones a partir de la media, varianza y los momentos estandarizados tercero y cuarto de X e Y.

Otros estadígrafos. Para cualquier variable aleatoria X, se define a la mediana x 0.5 de X por: P(X < x 0.5 ) ½ y P(X < x 0.5 ) ½ si X es discreta P(X x 0.5 ) = ½ si X es continua Para cualquier variable aleatoria X, se define a la moda x m de X como el valor x m de X que maximiza la función de probabilidad (si X es discreta), o la función de densidad de probabilidad si X es continua Para cualquier variable aleatoria X, se define el valor quantil x q de orden q, de X (0 < q < 1), por: P(X < x q ) q y P(X < x q ) q si X es discreta P(X x q ) = q si X es continua La Desviación media de una variable aleatoria X es el valor esperado de la diferencia absoluta entre X y su media, y está dado por: E X µ = x µ p(x) si X es discreta x E X µ = x µ f(x) dx si X es continua - Un método alternativo para determinar los momentos de una variable aleatoria dada su distribución de probabilidad, es encontrar la esperanza de cierta función conocida como función generadora de momentos. Sea X una variable aleatoria. El valor esperado de e tx recibe el nombre de función generadora de momentos, y se denota por m x (t), si el valor esperado existe para cualquier valor de t en algún intervalo -c < t < c, en donde c es un número positivo. En otras palabras. m x (t) = E[ e tx ] = x e tx p(x) si X es discreta m x (t) = E[ e tx ] = e tx f(x) dx si X es continua - m x (t) es una función solamente de t. Si t = 0, entonces m x (0) = E(e 0 ) = 1. Si la función generadora de momentos existe, puede demostrarse que es única y que determina por completo la distribución de probabilidad de X. En otras palabras, si dos variables aleatorias tienen la misma función generadora de momentos, entonces tienen la misma distribución de probabilidades. Si la función generadora de momentos existe para -c < t < c, entonces existen las derivadas de ésta de todas las ordenes para t = 0, y esto asegura que m x (t) generará todos los momentos de X alrededor del origen.

Sea X una variable aleatoria. El valor esperado de e t(x µ) recibe el nombre de función generadora de momentos central y se denota por m x-µ (t), si el valor esperado existe para cualquier valor de t en algún intervalo -c < t < c, en donde c es un número positivo. m x-µ (t) = E[ e t(x µ ) ] = x e t(x µ ) p(x) si X es discreta m x µ (t) = E[ e t(x µ ) ] = e t(x µ ) f(x) dx si X es continua - Ejemplo 14. Sea X una variable aleatoria, cuyas función de densidad de probabilidad es: 1/θ e x/θ x > 0 f(x) = en donde θ es un número mayor que cero. Determinar la función generadora de momentos de X. Ejemplo 15. Sea X una variables aleatoria discreta, con función de probabilidad: p(x) = e -λ λ x x = 0, 1, 2,... x! x = 0 en donde λ es un número mayor que cero. Determinar la función generadora de momentos de X. Se han estimado promedios y varianzas para diversas distribuciones de probabilidades, y hemos visto que ambas cantidades proporcionan alguna información útil acerca del centro y dispersión de la masa de probabilidad. Ahora, si solo se conocen estos valores, se puede decir algo acerca de las probabilidades para diversos intervalos?. Si la distribución tiene una forma razonablemente simétrica, podemos decir que 68% de las observaciones están ± 1 desviación estándar de la media (µ σ, µ+ σ ), y 95% de las observaciones están ± 2 desviación estándar de la media (µ 2σ, µ + 2σ ). Si la distribución no es tan simétrica, estos resultados no son muy buenos y puede dar una mala aproximación; en estos casos, y en general, podemos aplicar la Desiguald de Tchebyshev que relaciona a µ, σ y las probabilidades. Teorema de Tchebyshev. Sea X una variable aleatoria cuya media es µ y su varianza σ 2. Entonces para toda k positiva P( X µ < k σ ) 1 1 k 2 Ejemplo 16. La producción diaria de motores eléctricos en una fábrica es 120 de promedio con una desviación estándar de 10. a) qué fracción de días serán de un nivel de producción entre 100 y 140?. b) Calcular el intervalo más corto que con certeza contenga por lo menos el 90% de los niveles de producción diaria. Ejemplo 17. el costo diario por usar determinada herramienta tiene una media de $13, y una varianza de 41. con que frecuencia el costo será mayor que 30?