Tema 2. Distribuciones propias del análisis multivariante. Concepto de matriz aleatoria Una matriz aleatoria de orden n p es una función medible X sobre un espacio de probabilidad (Ω, A, P con valores en M n,p, el espacio de las matrices de n filas y p columnas. Se denota X = (X i j donde 1 i n, 1 j p. La matriz de medias, E[X] = (E[X i j ], conserva algunas propiedades de la esperanza: E[X 1 + ] = E[X 1 ] + E[ ] Si A, B y C son matrices constantes E[AXB + C] = AE[X]B + C vec(e[x] = E[vec(X]. También podemos definir la covarianza matricial Covm(X = Cov(vec(X. La función característica de una matriz aleatoria se define como: Sus propiedades: ϕ X (s = E[exp{i tr(s t X}] = E[exp{i vec(s vec(x}] = ϕ vec(x (vec(s, s M n,p ϕ X t(s = ϕ X (s t. Si X = (X 1 con X 1 M n,k (k < p y s 1 M n,k entonces ϕ (s 1 = ϕ X (s 1 0. ϕ AXB+C (s = exp{i tr(s t C}ϕ X (A t sb t. Si X = (X 1... X k y s = (s 1... s k entonces las submatrices X 1,..., X k son independientes si y sólo si ϕ X (s = ϕ (s 1... ϕ Xk (s k 2.1 Distribución normal matricial. Sea µ = (µ i j una matriz de orden n p y sean Γ = (γ i j y (σ i j matrices cuadradas simétricas y semidefinidas positivas de órdenes n y p, respectivamente. DEFINICIÓN. Diremos que la matriz aleatoria de orden n p, X = (X i j sigue distribución normal matricial de parámetros µ, Γ y Σ si en cuyo caso denotaremos X N n,p (µ, Γ, Σ vec(x N np (vec(µ, Γ Σ Es fácil deducir a partir de las propiedades de la normal multivariante y del producto de Kronecker que la función característica de la normal matricial es: { ϕ X (s = ϕ vec(x (vec(s = exp i tr(s t µ 1 } 2 tr(st ΓsΣ, s M n,p Si Γ y Σ son definidas positivas, la función de densidad de X es f (x = 1 (2π np/2 Γ p/2 Σ n/2 exp{ 1 2 tr((x µt Γ 1 (x µσ 1 }, x M n,p Por último es inmediato comprobar que E[X] = µ y Covm(X = Γ Σ. 1
Propiedades de la distribución normal matricial. Supongamos que X N n,p (µ, Γ, Σ, (Matriz traspuesta X t N p,n (µ t, Σ, Γ. Si p = 1 y σ 2 0 entonces X N n (µ, σ 2 Γ. Si n = 1 y Γ = γ 2 0 entonces X t N n (µ, γ 2 Γ. Si a R, entonces ax N n,p (aµ, a 2 Γ, N n,p (aµ, Γ, a 2 Σ (Transformaciones lineales Si C M m,n, D M p,r y H M m,r, entonces CXD + H N m,r (CµD + H, CΓC t, D t ΣD (Distribuciones marginales por columnas Sea p = p 1 + p 2. Si X = (X 1, µ = (µ 1 µ 2 y ( Σ t con X i, µ i M n,pi y Σ ii M pi i = 1, 2, entonces X i N n,pi (µ i, Γ, Σ ii, i = 1, 2 (Distribuciones condicionadas por columnas Sea p = p 1 + p 2. Si X = (X 1, µ = (µ 1 µ 2 y ( Σ t con X i, µ i M n,pi y Σ ii M pi i = 1, 2, entonces dado x 2 M n,p2, la distribución de X 1 condicionada a que = x 2 es N n,p1 (µ 1 + (x 2 µ 2 Σ 1 22 Σt, Γ, Σ 11 Σ Σ 1 22 Σt (Distribuciones marginales por filas Sea n = n 1 + n 2. Si ( ( ( µ1 X =, µ = y Γ = Γ t µ 2 con X i, µ i M ni,p y Γ ii M ni i = 1, 2, entonces X i N ni,p(µ i, Γ ii, Σ, i = 1, 2 (Distribuciones condicionadas por filas Sea n = n 1 + n 2. Si ( ( ( µ1 X =, µ = y Γ = Γ t µ 2 i = 1, 2, entonces, dado x 2 M n2,p, la distribución de X 1 condi- con X i, µ i M ni,p y Γ ii M ni cionada a que = x 2 es N n1,p(µ 1 + Γ Γ 1 22 (x 2 µ 2, Γ 11 Γ Γ 1 22 Γt, Σ 2
Resultados sobre la independencia de ciertas funciones de una normal matricial. INDEPENDENCIA DE SUBMATRICES DE UNA NORMAL MATRICIAL. Supongamos que X N n,p (µ, Γ, Σ. Por columnas Sea p = p 1 + p 2. Supongamos que X = (X 1 y ( Σ t con X i, M n,pi y Σ M p1,p 2. Supongamos además que Γ 0. Entonces X 1, son independientes si y sólo si Σ = 0 Por filas Sea n = n 1 + n 2. Supongamos que X = ( ( y Γ = Γ t con X i M ni,p y Γ M n1,n 2. Supongamos además que Σ 0. Entonces X 1, son independientes si y sólo si Γ = 0 INDEPENDENCIA DE TRANSFORMACIONES LINEALES DE UNA NORMAL MATRICIAL. Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sean A M m,n y B M r,n. Entonces AX, BX son independientes si y sólo si AB t = 0 INDEPENDENCIA DE FORMAS CUADRÁTICAS GENERALIZADAS ASOCIADAS A UNA NORMAL MATRICIAL. Una transformación lineal y una forma cuadrática Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sea A M m,n y sea B M n una matriz simétrica y semidefinida positiva. Si AB = 0, entonces AX y X t BX son independientes. Dos formas cuadráticas Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sean A y B M n matrices simétricas y semidefinidas positivas. Rango de una normal matricial. Si AB = 0, entonces X t AX y X t BX son independientes. Si X N n,p (µ, Γ, Σ con p n y Γ, Σ definidas positivas, entonces P(r(X = p = 1. 3
2.2 Distribuciones de Wishart y Hotelling Distribución de Wishart DEFINICIÓN Sea Y una matriz aleatoria con distribución N n,p (0, I n, Σ, siendo Σ semidefinida positiva. Se denomina distribución de Wishart de parámetros p, n y Σ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Y t Y y denotaremos por W W p (n, Σ. Dicho de otro modo, si Y 1,..., Y n son vectores aleatorios p-dimensionales, independientes idénticamente distribuidos con distribución N p (0, Σ entonces la distribución Wishart de parámetros p, n y Σ es la de la matriz aleatoria W = n Y i Y t i. Nótese que en la definición original estos vectores forman las filas de la matriz Y. Si p = 1 y σ 2, entonces W 1 (n, σ 2 = σ 2 χ 2 (n. Evidentemente si σ 2 = 1 obtenemos la distribución chi-cuadrado con n grados de libertad. DEFINICIÓN (Wishart no central Sea Y una matriz aleatoria con distribución N n,p (µ, I n, Σ, siendo Σ semidefinida positiva. Denotemos por δ a la matriz cuadrada p-dimensional semidefinida positiva δ = µ t µ. Se denomina distribución de Wishart no central de parámetros p, n, Σ y δ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Y t Y y denotaremos por W W p (n, Σ, δ. Dicho de otro modo, si Y 1,..., Y n son vectores aleatorios p-dimensionales, independientes con distribuciones respectivas N p (µ i, Σ, i = 1,..., n, entonces la distribución Wishart de parámetros p, n, Σ y δ es la de la matriz aleatoria W = n Y i Y t i. En este caso, la matriz µ de la definición original se particionaría µ t = (µ 1... µ n y por tanto δ = n µ i µ t i. Nótese que la distribución Wishart será centrada si el parámetro de descentralización δ = 0. Propiedades de la distribución Wishart. Si W W p (n, Σ, δ entonces E[W] = nσ + δ. Si a R + y W W p (n, Σ, δ entonces aw W p (n, aσ, aδ. Si W W p (n, Σ, δ y A M r,p entonces AWA t W r (n, AΣA t, AδA t. (Marginales de una Wishart Sean p = p 1 + p 2, W W p (n, Σ, δ y consideremos las siguientes descomposiciones: ( ( ( W11 W W = W t, δ11 δ W 22 Σ t y δ = δ t δ 22 con W ii, Σ ii, δ ii matrices cuadradas de orden p i, i = 1, 2. Entonces W ii W pi (n, Σ ii, δ ii, i = 1, 2. (rango de una Wishart Si W W p (n, Σ, δ y Σ es definida positiva entonces P( W 0 = 1, es decir, W es definida positiva casi seguramente. (suma de Wisharts independientes Si W 1 W p (n 1, Σ y W 2 W p (n 2, Σ son independientes, entonces W 1 + W 2 W p (n 1 + n 2, Σ. Distribución de formas cuadráticas matriciales Sea Y N n,p (µ, I n, Σ y sea A una matriz cuadrada de orden n y rango k, simétrica. Si A es idempotente, entonces Y t AY W p (k, Σ, µ t Aµ. 4
Otros resultados relativos a la distribución de Wishart. Sea W W p (n, Σ con n p y Σ definida positiva. Supongamos p = p 1 + p 2 y consideremos las siguientes descomposiciones de W y Σ: ( ( W11 W W = W t, W 22 Σ t con W ii, Σ ii matrices cuadradas de orden p i, i = 1, 2. Denotemos por Σ 11 2 = Σ 11 Σ Σ 1 22 Σt. Si U = W 1 22 Wt, entonces la distribución de U condicionada a W 22 es N p2,p 1 (Σ 1 22 Σt, W 1 22, Σ 11 2. Si V = W 11 W W 1 22 Wt, entonces V es independiente de (U, W 22 y V W p1 (n p 2, Σ 11 2. Por último establecemos la siguiente relación entre la distribución de Wishart y la chi cuadrado: Si y R p \{0} entonces Distribución T 2 de Hotelling y t Σ 1 y y t W 1 y χ2 (n p + 1 DEFINICIÓN Supongamos n p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ y W una matriz aleatoria con distribución W p (n, Σ independientes. Llamaremos distribución T 2 de Hotelling de parámetros p y n a la distribución de probabilidad de la variable aleatoria T = ny t W 1 Y, denotándose T T 2 (p, n. Si p = 1, entonces T 2 (1, n es el cuadrado de una distribución t de Student con n grados de libertad. DEFINICIÓN (T 2 de Hotelling no central Con las notaciones de la definición anterior, supongamos que µ R p y que Y tiene distribución N p (µ, Σ. Si denotamos por δ = µ t Σ 1 µ, llamaremos distribución T 2 de Hotelling no central de parámetros p, n y δ a la distribución de probabilidad de la variable aleatoria T = ny t W 1 Y, denotándose T T 2 (p, n, δ. Relación entre la distribución T 2 de Hotelling y la F de Snedecor. Supongamos n p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ y W una matriz aleatoria con distribución W p (n, Σ independientes. Entonces la variable aleatoria F = n p + 1 Y t W 1 Y p tiene distribución F(p, n p + 1. En consecuencia se verifica que T T 2 (p, n si y sólo si n p + 1 np T F(p, n p + 1 5