1 Variables aleatorias independientes



Documentos relacionados
Espacio de Funciones Medibles

Introducción al Tema 9

Dr. Mauro Gutierrez Martinez Dr. Christiam Gonzales Chávez

Lógica Proposicional, Teoremas y Demostraciones

Polinomios. 1.- Funciones cuadráticas

Ejercicios de Variables Aleatorias

Soluciones Examen de Estadística

Definición de la matriz inversa

Distribución muestral de proporciones. Algunas secciones han sido tomadas de: Apuntes de Estadística Inferencial Instituto Tecnológico de Chiuhuahua

5. VARIABLES ALEATORIAS Y SUS MOMENTOS

DISTRIBUCIONES DE PROBABILIDAD

Tema 4 Probabilidad condicionada: teoremas básicos. Independencia de sucesos

Tema 3: Estimadores de máxima verosimilitud

TEMA 11. Autovalores y autovectores. Diagonalización y formas canónicas.

Espacios vectoriales con producto interior

3.3 Funciones crecientes y decrecientes y el criterio de la primera derivada

5.1. Distribución Conjunta de Dos Variables Aleatorias.

Anexo C. Introducción a las series de potencias. Series de potencias

PROBABILIDAD Y ESTADÍSTICA. Sesión 5 (En esta sesión abracamos hasta tema 5.8)

ESTADÍSTICA INFERENCIAL

Matemáticas I: Hoja 1

Variables Aleatorias. Capítulo Introducción.

Nombre de la asignatura: Probabilidad y Estadística Ambiental

TEMA II: DISTRIBUCIONES RELACIONADAS CON LA NORMAL

2. Probabilidad y. variable aleatoria. Curso Estadística Probabilidad. Probabilidad y variable aleatoria

Sistemas de Ecuaciones Lineales

Proyecciones. Producto escalar de vectores. Aplicaciones

6.3. Estimadores Insesgados de Varianza Uniformemente Mínima

Analicemos ahora el siguiente ejemplo: (2x 4y) dx + (12y - 6x + 1) dy = 0. Será ésta una ecuación diferencial reducible a homogénea?

0,05 0,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0,5

Tema 3: Cálculo de Probabilidades Unidad 2: Variables Aleatorias

P (X 5) = P (x = 5) + P (X = 6) + P (X = 7) + P (X = 8) = =

Explorando la ecuación de la recta pendiente intercepto

1. SISTEMAS DE ECUACIONES DIFERENCIALES

Reglas de derivación Sumas, productos y cocientes. Tema 4

C. Distribución Binomial

Matrices escalonadas y escalonadas reducidas

EJERCICIOS RESUELTOS TEMA 7

6. ESTIMACIÓN DE PARÁMETROS

Sistemas de Ecuaciones Lineales. Solución de Sistemas de Ecuaciones Lineales. José de Jesús Angel Angel.

CÁLCULO DIFERENCIAL Muestras de examen

Límites en el infinito, funciones divergentes

Método de fórmula general

ANILLOS DE POLINOMIOS. Sea A un anillo conmutativo. El conjunto A[X] de polinomios sobre A esta formado por los elementos

Derivadas. Contenido Introducción. ( α) Definición de Derivada. (α) Pendiente de la recta tangente. (α) Funciones diferenciables.

Modelos de probabilidad

TEMA 2: DERIVADA DE UNA FUNCIÓN

Estadística Avanzada y Análisis de Datos

Funciones Exponenciales y Logarítmicas

DISTRIBUCIONES DE PROBABILIDAD (RESUMEN)

Profr. Efraín Soto Apolinar. Método Gráfico

Ejemplo Traza la gráfica de los puntos: ( 5, 4), (3, 2), ( 2, 0), ( 1, 3), (0, 4) y (5, 1) en el plano cartesiano.

Tema 5: Principales Distribuciones de Probabilidad

Ecuaciones. 3º de ESO

UNIDAD 3: ANALICEMOS LA FUNCION EXPONENCIAL Y LOGARITMICA.

Tema 11: Intervalos de confianza.

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO FACULTAD DE INGENIERÍA DIVISIÓN DE CIENCIAS BÁSICAS COORDINACIÓN DE MATEMÁTICAS LOGARITMOS

Teorema de Bayes. mientras que B tiene una tasa de defectos del 4%.

Variable Aleatoria. Relación de problemas 6

Teoría de la decisión Estadística

si este límite es finito, y en este caso decimos que f es integrable (impropia)

Propiedades en una muestra aleatoria

7. Distribución normal

La distribución normal o gaussiana es la distribución. Definición 42 Se dice que una variable X se distribuye como normal con parámetros µ y σ si

Combinación Lineal. Departamento de Matemáticas, CCIR/ITESM. 10 de enero de 2011

x R F (x) := P (X 1 (, x]) = P ({e Ω : X(e) x}) = P (X x) salvo que en este caso esta función es siempre una función continua.

Integración por el método de Monte Carlo

Procesos Estocásticos

Taller matemático. Razonamiento. Cristóbal Pareja Flores antares.sip.ucm.es/cpareja Facultad de Estadística Universidad Complutense de Madrid

Tema 2. Grupos. 3. El conjunto de matrices de orden 2 con coeficientes enteros (o reales) con la suma es un grupo conmutativo.

VOCABULARIO HABILIDADES Y CONCEPTOS

Conjuntos finitos y conjuntos numerables

2. Ortogonalidad. En todo el capítulo trabajaremos sobre un espacio vectorial euclídeo U.

Si quisiéramos estudiar también cuánto distan, es decir a b, tendríamos 6 resultados: 0, 1, 2, 3, 4 ó 5, con distribución de probabilidad dada por:

1 Aplicaciones lineales

Práctica 2 Métodos de búsqueda para funciones de una variable

VALOR ABSOLUTO. Definición.- El valor absoluto de un número real, x, se define como:

Desde la secundaria estamos acostumbrados a trabajar con polinomios, los cuales identificamos con expresiones de la forma

Tema 1. Álgebra lineal. Matrices

CURSOSO. Aritmética: Númerosnaturalesyenteros. Númerosracionalesyfraciones. MATEMÁTICAS. AntonioF.CostaGonzález

Métodos Numéricos: Resumen y ejemplos Tema 5: Resolución aproximada de ecuaciones

Seminario de problemas-bachillerato. Curso Hoja 4

LA DISTRIBUCIÓN NORMAL

Valores y Vectores Propios

1. Conocimientos previos. 1 Funciones exponenciales y logarítmicas.

Solución de ecuaciones de segundo grado completando el trinomio cuadrado perfecto

3 Aplicaciones de ED de primer orden

Probabilidades y la curva normal

SESIÓN 13 DERIVACIÓN DE FUNCIONES EXPONENCIALES Y LOGARÍTMICAS (2ª PARTE)

El supermercado XYZ desea conocer el comportamiento del mismo en una sola hora de un día típico de trabajo.

Apuntes de Matemática Discreta 2. Operaciones con Conjuntos

rad, y rad = 360 Ejercicio 1 Realizar las conversiones de grados a radianes y de radianes a grados de los siguientes ángulos:

Aplicaciones de las integrales dobles

Suma de Potencias. Gastón Rafael Burrull Naredo. 22 de marzo de Resumen

Sucesiones y funciones divergentes

CLASE Nº7. Patrones, series y regularidades numéricas

Contenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra.

Problemas de Física 1 o Bachillerato

Demostración de la Transformada de Laplace

ESTADÍSTICA INFERENCIAL

Transcripción:

1 Variables aleatorias independientes El concepto de independencia es sumamente importante en teoría de probabilidad y su negación, la dependencia, es un importante objeto de estudio actualmente en diversas áreas de la investigación. Para conceptualizar la independencia de variables aleatorias, imitaremos la idea de la independencia de conjuntos. Recordemos que dado un espacio de probabilidad (Ω, F, P) dos eventos A, B F con P [B > 0 son independientes si y sólo si P [ A B = P [A Esta definición, completamente intuitiva, se extiende a conjuntos de probabilidad cero, dándonos por resultado que los conjuntos A, B F son independientes si y sólo si P [A B = P [A P [B (1) Cómo extender esta idea a variables aleatorias? Sabemos, por definición de variable aleatoria que para cualesquiera conjuntos C, D B(R) 1 tenemos {ω : X(ω) C} F {ω : Y (ω) D} F La clase de conjuntos σ(x) = {ω : X(ω) C; C B(R)} es toda la información disponible sobre la variable aleatoria X (obsérvese que C varía sobre B(R)), es decir, son todos aquéllos eventos del espacio muestral relacionados con la variable aleatoria X. Es por esto que resulta intuitivo definir independencia de variables aleatorias en términos de estas clases de conjuntos. Definición 1.1. Dos variables aleatorias X, Y son independientes si y sólo si para cualesquiera A σ(x) y B σ(y ) los eventos A y B son independientes. Equivalentemente, las variables aleatorias X, Y son independientes si y sólo si para cualesquiera C, D B(R) tenemos P [X C, Y D = P [X C P [X D De la misma manera que en el caso univariado, es deseable tener una caracterización de la independencia en términos de las funciones de distribución y de densidad. Esto se logra gracias a que los conjuntos de la forma n (, x i i=1 1 B(R) representa a los conjuntos Borelianos, todos aquéllos conjuntos C R para los cuáles deseamos calcular P [X C. 1

son suficientes para explicar las cantidades P [X C, Y D, C, D B(R) como se vio en la sección?? sobre la Función de distribución multivariada. Con esto, tenemos una definición alternativa para la independencia de dos variables aleatorias mucho más manejable. Definición 1.2. Dos variables aleatorias X, Y con función de distribución conjunta F (x, y) y marginales F X (x) y F Y (y) respectivamente son independientes si y sólo si para cualesquiera dos valores x, y R se tiene F (x, y) = F X (x)f Y (y) (2) Es importante recalcar que esta definición es independiente del carácter discreto o continuo (o ninguno de ambos) de las variables aleatorias X, Y, por lo cual es una definición un tanto general todavía. Concentrémonos en cada caso y analicemos la relación de la ecuación (2) con las funciones de densidad. 1.1 Caso discreto Cuando las variables aleatorias X, Y son discretas el análisis es muy simple. Denotemos por p(x, y) a la función de densidad conjunta del vector (X, Y ) y por p X (x), p Y (y) a las densidades marginales de cada variable. Partiendo directamente de la definición conjuntista de independencia observamos que si X y Y son independientes, entonces para cualesquiera x Ran(X), y Ran(Y ), p(x, y) =P [X = x, Y = y = P [X {x}, Y {y} =P [X {x} P [Y {y} = P [X = x P [Y = y = p X (x)p Y (y) Es decir, la independencia implica la factorización p(x, y) = p X (x)p Y (y) para cualesquiera valores x Ran(X), y Ran(Y ). Por otro lado, si suponemos que esta factorización es cierta, entonces para cualesquiera conjuntos C, D tenemos P [X C, Y D = p(x, y) = p X (x)p Y (y) x C y D x C y D = p X (x) (4) p Y (y) = P [X C P [Y D x C y D (3) En conclusión hemos demostrado la siguiente Proposición. Proposición 1.1. Sean X, Y variables aleatorias discretas con función de densidad conjunta p(x, y) y funciones de densidad marginales p X (x), p Y (y). Entonces, X es independiente de Y si y sólo si x Ran(X), y Ran(Y ), p(x, y) = p X (x)p Y (y) 2

Ejemplo 1.1 Supongamos que el número de personas que llegan al andén del tren entre las 5:00 am y las 5:15 am para abordar el primer tren de la mañana sigue una distribución de Poisson con parámetro λ > 0. Cada individuo que llega a abordar este tren es hombre con probabilidad p (0, 1) y mujer con probabilidad 1 p independientemente de los demás que han llegado y llegarán. Sean H el número de hombres que abordan el primer tren y M el número de mujeres que lo abordan. Cuál es la distribución conjunta de (H, M)? Son independientes? Solución: Para encontrar la función de densidad conjunta, tomemos m, n N cualesquiera, entonces P [H = n, M = m = P [ H = n, M = m H + M = j P [H + M = j j=0 = P [ H = n, M = m (5) H + M = n + m P [H + M = n + m Para comprender esta ecuación obsérvese que la primera igualdad es la fórmula de la probabilidad total aplicada al evento {H = n, M = m} usando la partición de Ω formada por los conjuntos {H + M = j} j N. La segunda igualdad se sigue de que para todo j n + m P [ H = n, M = m H + M = j = 0 Ahora, H + M es el número total de pasajeros del tren y por lo tanto sigue una distribución de Poisson con parámetro λ > 0 por hipótesis. La otra hipótesis del enunciado nos dice que sabiendo que han llegado n + m personas, cada una es hombre (éxito) con probabilidad p (0, 1) por lo cuál el número total de hombres sigue una distribución Binomial con parámetros (n + m, p). Cabe destacar que esta distribución Binomial para H está condicionada a que el número total de arribos es n + m. Como consecuencia P [ H = n, M = m H + M = n + m = ( n + m n Sustituyendo esto en la fórmula (5) obtenemos ( n + m P [H = n, M = m = )p n (1 p) m e λ λ n+m n = e pλ (pλ) n n! e (1 p)λ ((1 p)λ) m m! ) p n (1 p) m = p n (1 p) m e pλ λ n e (1 p)λ λ m n!m! Esto demuestra que H y M son variables aleatorias independientes con distribuciones Poisson de parámetros pλ y (1 p)λ respectivamente. 3

Este resultado es muy intuitivo pues si pensamos que el número total de personas es Poisson λ, entonces el número promedio de personas que llegan al andén es λ. Como cada uno es hombre o mujer independientemente de los demás y la proporción de hombres es p y la de mujeres es 1 p, esperamos que el número de hombres que llegan al andén sea, en promedio, pλ y el de mujeres (1 p)λ. El hecho de que la distribución sea Poisson se puede intuir pensando que los arribos de hombres siguen el mismo patrón que los arribos globales. Esta manera de resolver el ejemplo es muy informativa, pues nos dice que H, M son independientes y nos da de inmediato sus densidades. No obstante, puede parecer un truco el escribir λ = pλ + (1 p)λ en la exponencial. De no hacerlo así obtenemos la densidad conjunta como p(n, m) = e λ (pλ) n ((1 p)λ) m n!m! La buena noticia es que esta expresión es suficiente para obtener la independencia de las variables H, M. La razón de que esto sea así se expresa en la siguiente Proposición. Proposición 1.2. Sean X, Y variables aleatorias discretas con función de densidad conjunta p(x, y). Las variables X, Y son independientes si y sólo si existen g(x), h(y) tales que para cada x Ran(X), y Ran(Y ) se tiene p(x, y) = g(x)h(y) Demostración. Supongamos primero que X, Y son independientes. En este caso basta tomar g(x) = p X (x) y h(y) = p Y (y) como se ha demostrado al incio de esta sección. Supongamos ahora que existen g(x), h(y) para las cuáles p(x, y) = g(x)h(y), entonces 1 = p(x, y) = g(x) h(y) x y x y por lo cuál existen g(x) = C 1, x y Calculando la densidad marginal de X obtenemos h(y) = C 2, y además C 1 C 2 = 1 p X (x) = y p(x, y) = y g(x)h(y) = C 2 g(x) Análogamente p Y (y) = C 1 h(y) Esto implica que p(x, y) = g(x)h(y) = C 1 C 2 g(x)h(y) = p X (x)p Y (y) es decir X y Y son independientes. 4

Observación 1.1. En caso que se pueda factorizar la densidad conjunta p(x, y) cada una de las funciones involucradas en la factorización es un múltiplo de la densidad marginal. En el ejemplo 1.1 las funciones son λ (pλ)n g(n) = e n! de modo que nuestras constantes C 1 y C 2 son h(m) = ((1 p)λ)m m! C 1 = e λ(1 p), C 2 = e λ(1 p) 5