Tema 2. Distribuciones propias del análisis multivariante.

Documentos relacionados
Tema 1. Preliminares. 1.1 Resultados algebraicos

Tema1. Modelo Lineal General.

Estadística II Tema 1: Distribución normal multivariante

Tema 3 Normalidad multivariante

TEMA 2: Propiedades de los estimadores MCO

Apuntes de modelos lineales

Repaso de álgebra de matrices y probabilidad. Javier Santibáñez (IIMAS, UNAM) Regresión Semestre / 58

Distribuciones multivariadas

TEMA 3.- VECTORES ALEATORIOS.- CURSO

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Estadística III Repaso de Algebra Lineal

(DERIVADAS DE LA NORMAL)

Hoja 4 Variables aleatorias multidimensionales

GUIÓN TEMA 2. PROPIEDADES DE LOS ESTIMADORES MCO 2.1 PROPIEDADES ESTADÍSTICAS DEL ES- TIMADOR MCO DE.

Ma34a Probabilidades y Procesos Estocásticos 21 de Noviembre, Resumen No. 3

Métodos Estadísticos Multivariados

Tema 1: Distribución normal multivariante

Distribuciones unidimensionales continuas

Tema 4: Probabilidad y Teoría de Muestras

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices

Regresión Lineal Múltiple

Modelado de la aleatoriedad: Distribuciones

Análisis. Colección manuales uex Multivariante. Jesús Montanero Fernández (E.E.E.S.)

Tema 2 Datos multivariantes

Sistemas de ecuaciones lineales

Estadística I Tema 5: Modelos probabiĺısticos

Análisis multivariante II

Cálculo de Probabilidades II Preguntas Tema 2

Multivariante Curso Cálculo matricial

Manejo de las tablas

Tema 1. 1 Álgebra lineal. Aurea Grané Departamento de Estadística Universidad Carlos III de Madrid. 1.1 Vectores de R n. 1. Vectores. 2.

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

I. Distribuciones discretas

1 Vectores de R n. Tema 1. Álgebra matricial. 1.2 Dependencia lineal

Movimientos. Teorema de Cartan-Dieudonné. Semejanzas.

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

Tema 6: Distribuciones Multivariantes

Part VI. Distribuciones notables. Estadística I. Mario Francisco. Principales distribuciones unidimensionales. discretas. Principales distribuciones

Modelos Básicos de Distribuciones Discretas y Continuas

Matrices y sistemas de ecuaciones

Sistemas de ecuaciones lineales

Tema 2: Modelos probabilísticos de series

f(x, y, z, t) = (x + y t, x + 2y z 3t, 3x + 5y 2z 7t).

Análisis Multivariado. Leticia Gracia Medrano V

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

Otras distribuciones multivariantes

4. Modelos Multivariantes

4. Espacios vectoriales

2. Álgebra matricial. Inversa de una matriz O B 1 O B 1. Depto. de Álgebra, curso

ÁLGEBRA MATRICIAL. 1. La traspuesta de A es A; (A ) = A. 2. La inversa de A 1 es A; (A 1 ) 1 = A. 3. (AB) = B A.

Modelos de distribuciones discretas y continuas

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Capítulo 2. Medidas Estadísticas Básicas Medidas estadísticas poblacionales

Construcción de Paul Lévy del Movimiento Browniano Estándar, según P. Morters y Y. Peres. August 31, 2016

Sea V un conjunto no vacío (cuyos elementos se llamarán vectores) y sea K un cuerpo (cuyos elementos se llamarán escalares).

Bases y dimensión. Problemas teóricos. En todos los problemas se supone que V es un espacio vectorial sobre un campo F. p=1

Cálculo de Probabilidades y Estadística. Segunda prueba. 1

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 6. Variables aleatorias continuas

Semana 14 [1/28] Matrices. 22 de julio de Matrices

VECTORES ALEATORIOS. 1 Introducción. 2 Vectores aleatorios

Tema 6. Análisis Factorial.

APÉNDICE A. Algebra matricial

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Prácticas de Matemáticas II: Álgebra lineal

Descomposición del valor singular y sus aplicaciones

MATRICES. Una matriz es un conjunto de números o expresiones dispuestos en forma rectangular, formando filas y columnas.

Matemática 2 MAT022. Clase 1 (Complementos) Departamento de Matemática Universidad Técnica Federico Santa María. Matrices

Definición Dados dos números naturales m y n, una matriz de orden o dimensión m n es una tabla numérica rectangular con m filas y n columnas.

TEMA 7: MATRICES. OPERACIONES.

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Matrices. Álgebra de matrices.

Sobre vectores y matrices. Independencia lineal. Rango de una matriz

Espacios vectoriales

Vectores aleatorios (distribuciones multivariantes)

Algunos modelos clásicos de distribuciones asociadas a variables aleatorias discretas y absolutamente continuas

Capítulo V. T 2 (e, e

Espacios vectoriales DEFINICIÓN. PRIMERAS PROPIEDADES

Procesos estocásticos

Cálculo de Probabilidades II Preguntas Tema 1

Tema 3. Probabilidad y variables aleatorias

Tema 1. El Modelo de Regresión Lineal con Regresores Aleatorios.

Equivalencia de matrices. Sistemas de ecuaciones (Curso ) 1. Hallar la forma reducida equivalente por filas de la matriz:

Curso Inferencia. Miguel Ángel Chong R. 3 de septiembre del 2013

Gustavo Rodríguez Gómez. Agosto Dicembre 2011

Estadística I Tema 5: Modelos probabiĺısticos

Repaso de Estadística

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Probabilidad y Estadística

Tema 1: Matrices. Sistemas de ecuaciones. Determinantes

Matrices y Determinantes

TEMA 7. Matrices y determinantes.

Breve introducción a Matrices

Transcripción:

Tema 2. Distribuciones propias del análisis multivariante. Concepto de matriz aleatoria Una matriz aleatoria de orden n p es una función medible X sobre un espacio de probabilidad (Ω, A, P con valores en M n,p, el espacio de las matrices de n filas y p columnas. Se denota X = (X i j donde 1 i n, 1 j p. La matriz de medias, E[X] = (E[X i j ], conserva algunas propiedades de la esperanza: E[X 1 + ] = E[X 1 ] + E[ ] Si A, B y C son matrices constantes E[AXB + C] = AE[X]B + C vec(e[x] = E[vec(X]. También podemos definir la covarianza matricial Covm(X = Cov(vec(X. La función característica de una matriz aleatoria se define como: Sus propiedades: ϕ X (s = E[exp{i tr(s t X}] = E[exp{i vec(s vec(x}] = ϕ vec(x (vec(s, s M n,p ϕ X t(s = ϕ X (s t. Si X = (X 1 con X 1 M n,k (k < p y s 1 M n,k entonces ϕ (s 1 = ϕ X (s 1 0. ϕ AXB+C (s = exp{i tr(s t C}ϕ X (A t sb t. Si X = (X 1... X k y s = (s 1... s k entonces las submatrices X 1,..., X k son independientes si y sólo si ϕ X (s = ϕ (s 1... ϕ Xk (s k 2.1 Distribución normal matricial. Sea µ = (µ i j una matriz de orden n p y sean Γ = (γ i j y (σ i j matrices cuadradas simétricas y semidefinidas positivas de órdenes n y p, respectivamente. DEFINICIÓN. Diremos que la matriz aleatoria de orden n p, X = (X i j sigue distribución normal matricial de parámetros µ, Γ y Σ si en cuyo caso denotaremos X N n,p (µ, Γ, Σ vec(x N np (vec(µ, Γ Σ Es fácil deducir a partir de las propiedades de la normal multivariante y del producto de Kronecker que la función característica de la normal matricial es: { ϕ X (s = ϕ vec(x (vec(s = exp i tr(s t µ 1 } 2 tr(st ΓsΣ, s M n,p Si Γ y Σ son definidas positivas, la función de densidad de X es f (x = 1 (2π np/2 Γ p/2 Σ n/2 exp{ 1 2 tr((x µt Γ 1 (x µσ 1 }, x M n,p Por último es inmediato comprobar que E[X] = µ y Covm(X = Γ Σ. 1

Propiedades de la distribución normal matricial. Supongamos que X N n,p (µ, Γ, Σ, (Matriz traspuesta X t N p,n (µ t, Σ, Γ. Si p = 1 y σ 2 0 entonces X N n (µ, σ 2 Γ. Si n = 1 y Γ = γ 2 0 entonces X t N n (µ, γ 2 Γ. Si a R, entonces ax N n,p (aµ, a 2 Γ, N n,p (aµ, Γ, a 2 Σ (Transformaciones lineales Si C M m,n, D M p,r y H M m,r, entonces CXD + H N m,r (CµD + H, CΓC t, D t ΣD (Distribuciones marginales por columnas Sea p = p 1 + p 2. Si X = (X 1, µ = (µ 1 µ 2 y ( Σ t con X i, µ i M n,pi y Σ ii M pi i = 1, 2, entonces X i N n,pi (µ i, Γ, Σ ii, i = 1, 2 (Distribuciones condicionadas por columnas Sea p = p 1 + p 2. Si X = (X 1, µ = (µ 1 µ 2 y ( Σ t con X i, µ i M n,pi y Σ ii M pi i = 1, 2, entonces dado x 2 M n,p2, la distribución de X 1 condicionada a que = x 2 es N n,p1 (µ 1 + (x 2 µ 2 Σ 1 22 Σt, Γ, Σ 11 Σ Σ 1 22 Σt (Distribuciones marginales por filas Sea n = n 1 + n 2. Si ( ( ( µ1 X =, µ = y Γ = Γ t µ 2 con X i, µ i M ni,p y Γ ii M ni i = 1, 2, entonces X i N ni,p(µ i, Γ ii, Σ, i = 1, 2 (Distribuciones condicionadas por filas Sea n = n 1 + n 2. Si ( ( ( µ1 X =, µ = y Γ = Γ t µ 2 i = 1, 2, entonces, dado x 2 M n2,p, la distribución de X 1 condi- con X i, µ i M ni,p y Γ ii M ni cionada a que = x 2 es N n1,p(µ 1 + Γ Γ 1 22 (x 2 µ 2, Γ 11 Γ Γ 1 22 Γt, Σ 2

Resultados sobre la independencia de ciertas funciones de una normal matricial. INDEPENDENCIA DE SUBMATRICES DE UNA NORMAL MATRICIAL. Supongamos que X N n,p (µ, Γ, Σ. Por columnas Sea p = p 1 + p 2. Supongamos que X = (X 1 y ( Σ t con X i, M n,pi y Σ M p1,p 2. Supongamos además que Γ 0. Entonces X 1, son independientes si y sólo si Σ = 0 Por filas Sea n = n 1 + n 2. Supongamos que X = ( ( y Γ = Γ t con X i M ni,p y Γ M n1,n 2. Supongamos además que Σ 0. Entonces X 1, son independientes si y sólo si Γ = 0 INDEPENDENCIA DE TRANSFORMACIONES LINEALES DE UNA NORMAL MATRICIAL. Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sean A M m,n y B M r,n. Entonces AX, BX son independientes si y sólo si AB t = 0 INDEPENDENCIA DE FORMAS CUADRÁTICAS GENERALIZADAS ASOCIADAS A UNA NORMAL MATRICIAL. Una transformación lineal y una forma cuadrática Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sea A M m,n y sea B M n una matriz simétrica y semidefinida positiva. Si AB = 0, entonces AX y X t BX son independientes. Dos formas cuadráticas Supongamos que X N n,p (µ, I n, Σ con Σ 0. Sean A y B M n matrices simétricas y semidefinidas positivas. Rango de una normal matricial. Si AB = 0, entonces X t AX y X t BX son independientes. Si X N n,p (µ, Γ, Σ con p n y Γ, Σ definidas positivas, entonces P(r(X = p = 1. 3

2.2 Distribuciones de Wishart y Hotelling Distribución de Wishart DEFINICIÓN Sea Y una matriz aleatoria con distribución N n,p (0, I n, Σ, siendo Σ semidefinida positiva. Se denomina distribución de Wishart de parámetros p, n y Σ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Y t Y y denotaremos por W W p (n, Σ. Dicho de otro modo, si Y 1,..., Y n son vectores aleatorios p-dimensionales, independientes idénticamente distribuidos con distribución N p (0, Σ entonces la distribución Wishart de parámetros p, n y Σ es la de la matriz aleatoria W = n Y i Y t i. Nótese que en la definición original estos vectores forman las filas de la matriz Y. Si p = 1 y σ 2, entonces W 1 (n, σ 2 = σ 2 χ 2 (n. Evidentemente si σ 2 = 1 obtenemos la distribución chi-cuadrado con n grados de libertad. DEFINICIÓN (Wishart no central Sea Y una matriz aleatoria con distribución N n,p (µ, I n, Σ, siendo Σ semidefinida positiva. Denotemos por δ a la matriz cuadrada p-dimensional semidefinida positiva δ = µ t µ. Se denomina distribución de Wishart no central de parámetros p, n, Σ y δ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Y t Y y denotaremos por W W p (n, Σ, δ. Dicho de otro modo, si Y 1,..., Y n son vectores aleatorios p-dimensionales, independientes con distribuciones respectivas N p (µ i, Σ, i = 1,..., n, entonces la distribución Wishart de parámetros p, n, Σ y δ es la de la matriz aleatoria W = n Y i Y t i. En este caso, la matriz µ de la definición original se particionaría µ t = (µ 1... µ n y por tanto δ = n µ i µ t i. Nótese que la distribución Wishart será centrada si el parámetro de descentralización δ = 0. Propiedades de la distribución Wishart. Si W W p (n, Σ, δ entonces E[W] = nσ + δ. Si a R + y W W p (n, Σ, δ entonces aw W p (n, aσ, aδ. Si W W p (n, Σ, δ y A M r,p entonces AWA t W r (n, AΣA t, AδA t. (Marginales de una Wishart Sean p = p 1 + p 2, W W p (n, Σ, δ y consideremos las siguientes descomposiciones: ( ( ( W11 W W = W t, δ11 δ W 22 Σ t y δ = δ t δ 22 con W ii, Σ ii, δ ii matrices cuadradas de orden p i, i = 1, 2. Entonces W ii W pi (n, Σ ii, δ ii, i = 1, 2. (rango de una Wishart Si W W p (n, Σ, δ y Σ es definida positiva entonces P( W 0 = 1, es decir, W es definida positiva casi seguramente. (suma de Wisharts independientes Si W 1 W p (n 1, Σ y W 2 W p (n 2, Σ son independientes, entonces W 1 + W 2 W p (n 1 + n 2, Σ. Distribución de formas cuadráticas matriciales Sea Y N n,p (µ, I n, Σ y sea A una matriz cuadrada de orden n y rango k, simétrica. Si A es idempotente, entonces Y t AY W p (k, Σ, µ t Aµ. 4

Otros resultados relativos a la distribución de Wishart. Sea W W p (n, Σ con n p y Σ definida positiva. Supongamos p = p 1 + p 2 y consideremos las siguientes descomposiciones de W y Σ: ( ( W11 W W = W t, W 22 Σ t con W ii, Σ ii matrices cuadradas de orden p i, i = 1, 2. Denotemos por Σ 11 2 = Σ 11 Σ Σ 1 22 Σt. Si U = W 1 22 Wt, entonces la distribución de U condicionada a W 22 es N p2,p 1 (Σ 1 22 Σt, W 1 22, Σ 11 2. Si V = W 11 W W 1 22 Wt, entonces V es independiente de (U, W 22 y V W p1 (n p 2, Σ 11 2. Por último establecemos la siguiente relación entre la distribución de Wishart y la chi cuadrado: Si y R p \{0} entonces Distribución T 2 de Hotelling y t Σ 1 y y t W 1 y χ2 (n p + 1 DEFINICIÓN Supongamos n p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ y W una matriz aleatoria con distribución W p (n, Σ independientes. Llamaremos distribución T 2 de Hotelling de parámetros p y n a la distribución de probabilidad de la variable aleatoria T = ny t W 1 Y, denotándose T T 2 (p, n. Si p = 1, entonces T 2 (1, n es el cuadrado de una distribución t de Student con n grados de libertad. DEFINICIÓN (T 2 de Hotelling no central Con las notaciones de la definición anterior, supongamos que µ R p y que Y tiene distribución N p (µ, Σ. Si denotamos por δ = µ t Σ 1 µ, llamaremos distribución T 2 de Hotelling no central de parámetros p, n y δ a la distribución de probabilidad de la variable aleatoria T = ny t W 1 Y, denotándose T T 2 (p, n, δ. Relación entre la distribución T 2 de Hotelling y la F de Snedecor. Supongamos n p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ y W una matriz aleatoria con distribución W p (n, Σ independientes. Entonces la variable aleatoria F = n p + 1 Y t W 1 Y p tiene distribución F(p, n p + 1. En consecuencia se verifica que T T 2 (p, n si y sólo si n p + 1 np T F(p, n p + 1 5