Principios de reducción de la data

Documentos relacionados
Definición Una hipótesis es una afirmación acerca de un parámetro.

Familias de distribuciones

Estimación por intervalos

3 ESTIMACION. 3.1 Introducción

Curso Inferencia. Miguel Ángel Chong R. 1 de octubre del 2012

Introducción a la Inferencia Estadística

Tema 6: Introducción a la Inferencia Bayesiana

Tema 6: Modelos de probabilidad.

Momentos de Funciones de Vectores Aleatorios

Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones

Variables Aleatorias y Distribución de Probabilidades

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Cálculo de Probabilidades II Preguntas Tema 2

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Variables aleatorias continuas y Teorema Central del Limite

Variables aleatorias continuas, TCL y Esperanza Condicional

Estadística Bayesiana

Lista de Ejercicios (Parte 1)

Asignatura : INFERENCIA ESTADÍSTICA I Titulación : DIPLOMADO EN ESTADÍSTICA Profesor : ISABEL MOLINA PERALTA Capítulo 5 : INTERVALOS DE CONFIANZA

Probabilidad y Estadística

Estimación de Máxima Verosimilitud Utilizando la Función optim en R

Estimador de Máxima Verosimilitud

Estimación de Parámetros

Cálculo de Probabilidades II Preguntas Tema 1

CONTRASTE DE HIPÓTESIS

Variables aleatorias múltiples

Análisis Multivariante de Datos

Resumen. Recordemos que una cópula es una función C : I 2 I tal que: C(u 2, v 2 ) C(u 2, v 1 ) C(u 1, v 2 ) + C(u 1, v 1 ) 0. (2)

Selección de distribuciones de probabilidad

EL PRINCIPIO DE MÁXIMA VEROSIMILITUD (LIKELIHOOD)

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

PROBABILIDADES Trabajo Práctico 5. 0 si x<0. x3 si 0 x<2 1 si x 2

Teorema Central del Límite (1)

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Repaso de Probabilidad y Estadística

MODELOS DE SIMULACIÓN ESTADÍSTICOS CLASE 4: DISTRIBUCIÓN t, CHI-CUADRADA y EXPONENCIAL PROFESOR: OSCAR SAAVEDRA ANDRÉS DURANGO.

CONTRASTE DE HIPÓTESIS

Tema 6: Introducción a la inferencia estadística

Tema 6. Variables aleatorias continuas

Gráficas de funciones de masa de probabilidad y de función de densidad de probabilidad de Distribuciones especiales. x n

Distribuciones Probabilísticas. Curso de Estadística TAE,2005 J.J. Gómez Cadenas

DEFINICIONES BÁSICAS

Clasificación. Aurea Grané. Análisis Discriminante

ENUNCIADO y SOLUCIONES. Problema 1

Ejercicios de Variables Aleatorias

Algunas Distribuciones Continuas de Probabilidad. UCR ECCI CI-1352 Probabilidad y Estadística Prof. M.Sc. Kryscia Daviana Ramírez Benavides

INFERENCIA ESTADISTICA

Tema 4: Estimación por intervalo (Intervalos de Confianza)

Conceptos del contraste de hipótesis

Fórmulas, Resultados y Tablas Cálculo de Probabilidades y Estadística Matemática

Procesos estocásticos

Intervalos de Confianza

Preparación de los datos de entrada

1. Use el Teorema de Green para calcular el área de la región del. plano xy que satisface las desigualdades y x, x y, 8xy 1.

Funciones de Variables Aleatorias. UCR ECCI CI-1352 Investigación de Operaciones I Prof. M.Sc. Kryscia Daviana Ramírez Benavides

VARIABLES ALEATORIAS CONTINUAS

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

PROBABILIDADES Y ESTADÍSTICA (C) Práctica 3 P (X > 0) P ( 0,5 < X < 0,5) P ( X > 0,25) 1 si 2 x P (X 1) P (0,5 X 1) P (0,5 < X 1 X < 1)

Estadística y Probabilidad

Cap. 7 : Pruebas de hipótesis

Elementos de probabilidad e inferencia estadística en el seguro

Ejercicio 1. Ejercicio 2

Pérdida Esperada. Pérdida Esperada (PE): Valor esperado de pérdida por riesgo crediticio en un horizonte de tiempo determinado.

Tema 3: Estimación estadística de modelos probabilistas. (primera parte)

Tema 7: Introducción a la Teoría sobre Estimación


TEMA 2: Estimadores y distribuciones en el muestreo. Alfredo García Hiernaux. Grupos 69 y 73 Estadística I. Curso 2006/07

CAPÍTULO 6: VARIABLES ALEATORIAS

F (x, y) = no es la función de distribución acumulada de ningún vector aleatorio. b) Mostrar que. { (1 e x )(1 e y ) si x 0, y 0

Selección de distribuciones de probabilidad

Muestreo de variables aleatorias

Generación de variables aleatorias continuas

Capítulo 1. Teoría de la probabilidad Teoría de conjuntos

Capítulo. Distribución de probabilidad normal. Pearson Prentice Hall. All rights reserved

Estadística Grupo V. Tema 10: Modelos de Probabilidad

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

CÁLCULO DE PROBABILIDADES

Distribuciones multivariadas

1. Muestreo e Inferencia Estadística

LECTURA 03: DISTRIBUCIÓN T STUDENT Y DISTRIBUCIÓN CHICUADRADO TEMA 6: DISTRIBUCION T STUDENT. MANEJO DE TABLAS ESTADISTICAS.

Tema 3 Normalidad multivariante

FORMULARIO DE DISTRIBUCIONES DE PROBABILIDAD

Muchas variables aleatorias continuas presentan una función de densidad cuya gráfica tiene forma de campana.

( ) DISTRIBUCIÓN UNIFORME (o rectangular) 1 b a. para x > b DISTRIBUCIÓN DE CAUCHY. x ) DISTRIBUCIÓN EXPONENCIAL. α α 2 DISTRIBUCIÓN DE LAPLACE

Probabilidad y Estadística

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

Veamos cómo, con esta definición, podemos tomar siempre una muestra aleatoria como una muestra representativa de la población estudiada.

Variables aleatorias bidimensionales discretas

Introducción a la Teoría de la Información

Vectores aleatorios (distribuciones multivariantes)

Introducción a la Inferencia Estadística

Ejercicios de Simulación

Conceptos Básicos de Inferencia

Tema 4: Probabilidad y Teoría de Muestras

10.1 Enfoque Bayesiano del problema de la estimación

Distribuciones de muestreo fundamentales y descripciones de datos Muestreo aleatorio

Econometría II. Hoja de Problemas 1

Tema 4: Probabilidad y Teoría de Muestras

Otras distribuciones multivariantes

Transcripción:

Capítulo 6 Principios de reducción de la data 6.1. Introducción Un experimentador usa la información en una muestra X 1,, X n para realizar el proceso de inferencia sobre algun parámetro desconocido θ. Si el tamaño de muestra es grande, los valores observados en la muestra x 1,, x n podrían ser difíciles de interpretar de forma individual por lo que es necesario resumir la información en la muestra a través del cálculo de estadísticas como la media, la varianza, el máximo, el mínimo, la mediana, etc. 6.2. El principio de suficiencia Una estadística suficiente para θ es una estadística que, de cierta forma, captura toda la informacion acerca del parámetro contenida en la muestra. No es posible obtener información adicional en la muestra, además del valor de la estadística suficiente. Estas consideraciones nos llevan a la técnica de reducción de datos conocida como el principio de suficiencia: si T (X) es una estadística suficiente para θ, entonces el proceso de inferencia sobre θ depende de la muestra X solo a través del valor T (X). 78

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 79 6.2.1. Estadística suficiente En esta sección se mencionan algunos aspectos importantes del principio de suficiencia. Una estadística suficiente es un tipo particular de estadística que condensa la muestra de tal forma que no exista pérdida de información sobre θ. Se presenta a continuación una definición formal. Definición 6.2.1 Una estadística T (X) es una estadística suficiente para θ si la distribución de la muestra X dado el valor de T no depende de θ. Ejemplo 6.2.1 Sea X 1, X 2, X 3 una muestra de tamaño tres obtenida desde la distribución B(p). Probar si T (X) = X 1 + X 2 + X 3 es una estadística suficiente para p. La definición anterior no es muy manejable ya que requiere obtener una distribución condicional que podría no ser fácil en el caso de trabajar con variables aleatorias continuas. Teorema 6.2.1 Si f(x θ) es la función de probabilidad o densidad conjunta de X y q(t θ) es la función de probabilidad o densidad de T (X), entonces T es una estadística suficiente para θ si y solo si: no depende de θ para todo X. f(x θ) q (t θ) Ejemplo 6.2.2 Sea X 1,, X n una muestra obtenida desde la distribución P(λ). Probar que T (X) = X 1 + X 2 + + X n es una estadística suficiente para λ. Ejemplo 6.2.3 Sea X 1,, X n una muestra obtenida desde la distribución N (µ, σ 2 ) donde σ 2 es conocido. Probar si T (X) = X es una estadística suficiente para µ. La aplicación de la definición 6.2.1 es tediosa y requiere un conocimiento previo acerca del estadístico que podría ser suficiente. El siguiente teorema es de aplicación directa. Teorema 6.2.2 (Teorema de Factorización) Sea f(x θ) la función de probabilidad o densidad conjunta de la muestra X. La estadística T (X) es suficiente para θ si y solo si existen funciones g(t θ) y h(x) tales que:

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 8 f(x θ) = g(t (x) θ)h(x) (6.2.1) Según el teorema anterior para hallar una estadística suficiente se debe factorizar la función de probabilidad o densidad conjunta de la muestra en dos partes. Una parte no depende de θ y constituye la función h(x). La otra parte, que depende de θ, también depende de la muestra x solo a través de cierta función T (x) que corresponde a la estadística suficiente para θ. Ejemplo 6.2.4 Sea X 1,, X n una muestra obtenida desde la distribución G(α, β) donde β es conocido. Hallar una estadística suficiente para α. Ejemplo 6.2.5 Sea X 1,, X n una muestra obtenida desde la distribución UC(, θ). Hallar una estadística suficiente para θ. En muchos casos, una estadística suficiente es un vector: T (X) = (T 1 (X),, T r (X)) que ocurre cuando el parámetro es también un vector θ = (θ 1,, θ s ) siendo usual que r = s. El teorema de factorización puede ser usado para encontrar una estadistica suficiente en la situación anterior. Ejemplo 6.2.6 Sea X 1,, X n una muestra obtenida desde la distribución N (µ, σ 2 ) donde ambos parámetros son desconocidos, es decir θ = (µ, σ 2 ). Según el teorema de factorización: f(x µ, σ 2 ) = (2πσ 2 ) n/2 exp { 1 2σ 2 ( n )} (x i x) 2 + n( x µ) 2 { = (2πσ 2 ) n/2 exp 1 ( n( x µ) 2 + (n 1)s 2)} 2σ 2 Si T 1 (x) = x y T 2 (x) = s 2, entonces: f(x µ, σ 2 ) = { (2πσ 2 ) n/2 exp 1 ( n(t1 µ) 2 + (n 1)t )} 2σ 2 2 = g(t 1, T 2 µ, σ 2 )h(x) luego T (X) = (T 1, T 2 ) = (X, S 2 ) es una estadística suficiente para el modelo normal.

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 81 Las distribuciones que pertenecen a una familia exponencial cumplen con las condiciones vistas en el teorema de factorización por lo que es posible obtener las estadísticas suficientes de forma bastante directa. Teorema 6.2.3 Sea X 1,, X n una muestra obtenida desde una población cuya función de probabilidad o densidad f(x θ) pertenece a una familia exponencial dada por: { k } f(x θ) = h(x)c(θ) exp w i (θ)t i (x) donde θ = (θ 1, θ 2,, θ d ), d k. Entonces: n n T(X) = (T 1,, T k ) = t 1 (X j ),, t k (X j ) j=1 j=1 es una estadística suficiente para θ. También se dice que T 1,, T k son estadísticas conjuntamente suficientes Ejemplo 6.2.7 Sea X 1,, X n una muestra obtenida desde la distribución BE(α, β). Hallar una estadística conjuntamente suficiente para (α, β). Teorema 6.2.4 Sean T 1 (X),, T k (X) estadísticas conjuntamente suficientes. Entonces cualquier conjunto de transformaciones uno a uno de T 1,, T k es también conjuntamente suficiente. 6.2.2. Estadística minimal suficiente Ya que es posible encontrar muchas estadísticas suficientes en un mismo problema sera necesario establecer cuál es la mejor. Recordar que el propósito de una estadística suficiente es lograr resumir la data sin pérdida de información acerca del parámetro θ, es decir que se debe buscar aquella estadística que logre la mayor reducción de data reteniendo aún toda la información sobre θ. Definición 6.2.2 Una estadística suficiente T (X) es llamada estadística minimal suficiente si, para cualquier otra estadística suficiente T (X), T es función de T.

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 82 Teorema 6.2.5 Sea f(x θ) la función de probabilidad o densidad de una muestra X. Suponga que existe una función T (X) tal que para dos puntos muestrales x 1 y x 2 el ratio: f(x 1 θ) f(x 2 θ) no depende de θ si y solo si T (x 1 ) = T (x 2 ). Entonces T es una estadística minimal suficiente para θ. Ejemplo 6.2.8 Sea X 1,, X n una muestra obtenida desde la distribución N (µ, σ 2 ) ambos parámetros desconocidos. Probar que (X, S 2 ) es una estadística minimal suficiente para (µ, σ 2 ). Una estadística minimal suficiente no es única. Cualquier función uno a uno de una estadística minimal suficiente es también una estadística minimal suficiente. Luego T (X) = ( n X i, n X 2 i ) es también una estadística minimal suficiente en el ejemplo 6.2.8. 6.2.3. Estadística ancillar En las secciones anteriores se consideraron las estadísticas suficientes que contienen toda la información sobre θ en la muestra. En esta sección se introduce un tipo diferente de estadística que tiene un propósito complementario. Definición 6.2.3 Una estadística S(X) cuya distribución no depende del paramétro θ es llamada estadística ancillar. Ejemplo 6.2.9 Sea X 1,, X n una muestra obtenida desde la distribución U(θ, θ + 1). Sean X (1) < < X (n) las estadísticas de orden de la muestra. Probar que R = X (n) X (1) es una estadística ancillar. 6.2.4. Estadística suficiente y completa Otro concepto útil en la construcción de una estadística es la completez, que carece de una interpretación clara y de fácil entendimiento pero que resulta de mucha utilidad para poder encontrar una estadística óptima. Definición 6.2.4 Sea f(t θ) una familia con función de probabilidad o densidad para una estadística T (X). La familia es llamada completa si E θ [g(t )] =

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 83 implica necesariamente que Pr θ [g(t ) = ] = 1. Luego, T (X) es llamada una estadística completa. Ejemplo 6.2.1 Sea X 1,, X n una muestra obtenida desde la distribución B(p). Sea T (X) = X 1 + + X n BI(n, p). Sea g una función tal que: ( ) n n n ( ) ( ) E p [g(t )] = g(t) p t (1 p) n t = (1 p) n t n p g(t) = t= t t= t 1 p entonces g(t) = para t =, 1, 2,, n y Pr p (g(t ) = ) = 1, para todo p. Luego T es una estadística completa. Ejemplo 6.2.11 Sea X 1,, X n una muestra obtenida desde la distribución UC(, θ). Se tiene que T (X) = X (n) es una estadística suficiente y que su función de densidad es: nt n 1 θ < t < θ f(t θ) = de otro modo Suponga g(t) es una función que satisface E θ [g(t )] = para todo θ, entonces se tiene: = d dθ E θ [g(t )] = d dθ Para toda función Riemman integrable d dθ = d dθ θ n = θ n d dθ ˆθ ˆθ g(t)nt n 1 = (θ n )g(θ)nθ n 1 + = 1 θ g(θ)n = ˆθ g(t)nt n 1 θ n dt θ g(t)nt n 1 dt + d ˆθ dθ (θ n ) g(t)dt = g(θ). Luego: ng(t)t n 1 dt entonces g(θ) =, luego T es una estadística completa.

CAPÍTULO 6. PRINCIPIOS DE REDUCCIÓN DE LA DATA 84 Teorema 6.2.6 Sea X 1,, X n una muestra obtenida desde una población cuya función de probabilidad o densidad f(x θ) pertenece a una familia exponencial dada por: k f(x θ) = h(x)c(θ) exp w j (θ)t j (x) j=1 donde θ = (θ 1, θ 2,, θ k ), entonces la estadística: es suficiente y completa. ( n ) n T (X) = t 1 (X i ),, t k (X i ) Ejemplo 6.2.12 Sea X 1,, X n una muestra obtenida desde la distribución BE(α, β). Hallar estadísticas suficientes y completas para los parámetros.