Pruebas de Hipótesis Multiples

Documentos relacionados
Tema 18 Análisis de la varianza de un factor (ANOVA) Contraste paramétrico de hipótesis

Diseño de experimentos - prueba de hipótesis.

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN

ESTADISTICA AVANZADA. Análisis de la Variancia Anova One Way Kruskal-Wallis Bloques (Friedman)

Teorema Central del Límite (1)

ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

Conceptos del contraste de hipótesis

Métodos de Investigación en Psicología (11) Dra. Lucy Reidl Martínez Dra. Corina Cuevas Reynaud Dra. Renata López Hernández

Inferencia estadística: Prueba de Hipótesis. Jhon Jairo Padilla A., PhD.

Diseño de experimentos Hugo Alexer Pérez Vicente

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

Test ANOVA. Prof. Jose Jacobo Zubcoff 1 ANOVA ANOVA. H 0 : No existen diferencias entre los k niveles H 1 : La hipótesis nula no es cierta

Estadísticas Pueden ser

Tema 9: Introducción al problema de la comparación de poblaciones

Comparación de dos grupos independientes Solución no paramétrica. En capítulo 12: Métodos no paramétricos

Introducción Método de Fisher Método de Bonferroni y FDR. Test Multiples. Graciela Boente 1. 1 Universidad de Buenos Aires and CONICET, Argentina

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

MATERIA: ESTADÍSTICA EJEMPLOS DE POSIBLES PREGUNTAS DE EXAMEN. a. Cuáles son las escalas en que pueden estar los datos en un análisis estadístico.

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

Análisis de la varianza (ANOVA)

ESTIMACIONES INTERVALOS DE CONFIANZA CON VARIANZA DIFERENTE LI. MIGUEL CANO

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

Estadística y sus aplicaciones en Ciencias Sociales 6. Prueba de hipótesis. Facultad de Ciencias Sociales, UdelaR

TEMA Nº 2 CONTRASTE DE HIPÓTESIS EN LOS DISEÑOS DE UNA MUESTRA

Escuela Nacional de Estadística e Informática ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA

Distribuciones de muestreo importantes. Jhon Jairo Padilla Aguilar, PhD.

TEST DE RAZÓN DE VEROSIMILITUD GENERALIZADA

10.3. Sec. Prueba de hipótesis para la media poblacional. Copyright 2013, 2010 and 2007 Pearson Education, Inc.

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

Diseño de Experimentos

ANEXO I. ANÁLISIS DE LA VARIANZA.

DISEÑO EXPERIMENTAL FACTORIAL DE GRUPOS

ANÁLISIS DE REGRESIÓN

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

Contraste de Hipótesis

Estadística. Contrastes para los parámetros de la Normal

Estadística Inferencial

Algunas pruebas no paramétricas: Test de Mann-Whitney y Test de Wilcoxon

Diseños Factoriales. Diseño de experimentos p. 1/25

Introducción a estadística

Pruebas de Hipótesis. Diseño Estadístico y Herramientas para la Calidad. Pruebas de Hipótesis. Hipótesis

DISEÑO DE CUADRADOS LATINOS

Principios de Bioestadística

Universidad Rafael Belloso Chacín (URBE) Cátedra: Fundamentos de Estadística y Simulación Básica Semestre Profesor: Jaime Soto

Dr. Abner A. Fonseca Livias

DCA: Es el más simple de todos los diseños, solamente se estudia el. en diferentes tratamientos o niveles.

Tema 13: Contrastes No Paramétricos

Estructura de este tema. Tema 3 Contrastes de hipótesis. Ejemplo

ESTIMACIONES INTERVALOS DE CONFIANZA CON VARIANZA DIFERENTE LI. MIGUEL CANO

Inferencia estadística

Nota de los autores... vi

11.5 Selección de genes expresados diferencialmente: determinación de un punto de corte.

Métodos de Diseño y Análisis de Experimentos

ANÁLISIS DE LA VARIANZA PARTE PRIMERA

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

UNIVERSIDAD DE ATACAMA

4. Prueba de Hipótesis

Estadística II / PRUEBAS DE HIPOTESIS. Una hipótesis estadística es una afirmación o conjetura acerca de una o mas poblaciones.

5. DISEÑO FACTORIALES 2 k

Pruebas de Hipótesis-ANOVA. Curso de Seminario de Tesis Profesor QF Jose Avila Parco Año 2016

Prueba de Hipótesis. Una hipótesis estadística es un supuesto que se establece sobre las características de una distribución poblacional

EJERCICIOS DE PRUEBA DE HIPOTESIS

Supuestos y comparaciones múltiples

Tema 8: Contrastes de hipótesis

Pruebas de Hipótesis

Diseños Factoriales. Diseño de experimentos p. 1/18

Contraste de hipótesis Tema Pasos del contraste de hipótesis. 1.1 Hipótesis estadísticas: nula y alternativa. 1.3 Estadístico de contraste

REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE

Inferencia estadística. Hipótesis estadística Errores! y " BC. Nathalia Navarro Trevisan

INGENIERO AGRÓNOMO EN PRODUCCIÓN TEMA: ESTIMACION Y PRUEBA DE HIPÓTESIS

UNIDAD 4. INFERENCIA ESTADÍSTICA. Prof. Eliana Guzmán U. Semestre A-2015

2. Plantear hipótesis considerando que: Hipótesis: Siendo una prueba no direccionada, el planteamiento de hipótesis, señalará que:

Diseño de bloques completos Aleatorizados. Jhon Jairo Padilla Aguilar, PhD.

TEMA 6 COMPROBACIÓN DE HIPÓTESIS ESPECÍFICAS DE INVESTIGACIÓN

Caso particular: Contraste de homocedasticidad

Prueba de Hipótesis. Bondad de Ajuste. Tuesday, August 5, 14

Análisis de la varianza ANOVA

Estimación de Parámetros.

Ideas básicas del diseño experimental

PRUEBA DE HIPÓTESIS BENJAMIN MAMANI CONDORI

Tabla de Test de Hipótesis ( Caso: Una muestra ) A. Test para µ con σ 2 conocida: Suponga que X 1, X 2,, X n, es una m.a.(n) desde N( µ, σ 2 )

b) Use la salida de SPSS para reproducir lo que pueda de los cálculos que hace SPSS. Estadísticos de contraste b TIEMPO

INFERENCIA ESTADISTICA

INDICE. Prólogo a la Segunda Edición

Podemos definir un contraste de hipótesis como un procedimiento que se basa en lo observado en las muestras y en la teoría de la probabilidad para

Tema 4. Análisis multivariante de la varianza

PLAN DE TRABAJO 9 Período 3/09/07 al 28/09/07

Especialización en Métodos Estadísticos (EME) CURSO PROPEDÉUTICO ESTADÍSTICA BÁSICA

Estadística Inferencial. Resúmen

Estrategia de análisis estadístico de los datos. Inferencia Estadística y contraste de hipótesis

Departamento de Ciencias del Mar y Biología Aplicada Prof. Jose Jacobo Zubcoff

EXPERIMENTOS FACTORIALES

Caso 105. Tamaño de muestra y potencia de una prueba. Diseño de experimentos. Jesús López Fidalgo

Transcripción:

Pruebas de Hipótesis Multiples

Cuando queremos hacer comparaciones de mas de dos poblaciones, una alternativa es comparar todos los grupos a la vez con el método de Análisis de Varianza (ANOVA) H o : µ 1 = µ 2 =L = µ k En un ANOVA siempre se van a considerar varias fuentes de variación y si se rechaza la hipótesis nula, la pregunta a plantearse es en qué grupo se dió la diferencia

Si lo que se va a probar es el efecto de solo un factor sobre alguna característica de interés, el análisis de varianza apropiado a usar es el ANOVA en una dirección o de un solo factor. Si las unidades experimentales se han elegido aleatoriamente, tenemos lo que se llama un experimento diseñado como completamente aleatorizado. En un Análisis en el que se quiere suponer que la media de los diferentes grupos bajo tratamiento es la misma, µ 1 = µ 2 =L = µ k suponemos que las varianzas en cada grupo son iguales " 2 1 = " 2 2 2 =L = " k, y que las muestras en cada grupo vienen de una distribución normal.

Fuentes de Variación. Variación Total (Total SS) Dentro de los Grupos (Within groups SS) Entre Grupos (Between groups SS) TSS = BSS + WSS

Variación Total (Total SS) Es la variación presente en todos los n datos y tiene asociada n-1 grados de libertad TSS = k # i=1 # n i X ij " X j=1( ) 2

Dentro de los Grupos El estimador de la variación total será la variación ponderada de todos los grupos, con n-k grados de libertad asociados a este estimador. WSS = k # i=1 $ %& n i # ( X ij " X ) 2 ' i () WSS/(n-k) se conoce como error cuadrado medio (EMS). j=1

Entre Grupos (Between groups SS): La cantidad de variabilidad entre los grupos es la cantidad más importante en la prueba estadística. Nos indica si realmente existe una diferencia entre los grupos BSS = n i # k ( X i " X ) 2 i=1 Tiene asociados k-1 grados de libertad. (k es el número de grupos a estudiar) BSS/(k-1) = BMS es la cantidad a comparar con WSS/(n-k)

Probando la Hipótesis Nula Si la hipótesis nula es verdadera, entonces tanto BMS como EMS estiman cada una a σ 2, la varianza común de los k grupos. Pero si las k medias de los grupos no son iguales, entonces BMS será más grande que EMS. Así, la prueba para la igualdad de medias es una prueba de cociente de varianzas de una cola F = BSS k "1 ESS ( ) ( n " k) ~ F k"1,n"k En caso de rechazarse la hipótesis nula, para encontrar cuál es el grupo que marca la diferencia podemos usar pruebas t por pares. cuidado!

ANOVA es robusto bajo considerable heterogeneidad de la varianza, siempre y cuando los tamaños de muestra dentro de los grupos se mantengan parecidos. Si hay duda de la validez de la hipótesis de normalidad del ANOVA o tenemos variables cualitativas, la prueba no paramétrica de Kruskal-Wallis es la prueba análoga a la ANOVA de un solo factor, usando rangos en vez de medias.

La prueba Kruskal Wallis Cuando no se cumplen los supuestos del análisis de varianza múltiple, K-W puede alcanzar una potencia hasta del 95%. Se basa en el rango de las n observaciones que inicialmente se obtienen sin distinguir grupos. H = 12 n(n + 1) k R i 2 " # 3(n + 1) i=1 n i n i es el número de observaciones en el grupo i. R i es la suma de los n i rangos del gupo i n = k " i=1 n i De rechazarse la hipótesis nula, se procede a encontrar el grupo o los grupos que son diferentes.

Se rechaza H o : µ 1 = µ 2 =L = µ k. Es muy tentador realizar pruebas por pares: H o : µ i = µ j, i " j. Problema: aumenta error tipo I, disminuye la potencia. Cada prueba t para cada pareja de grupos se realiza a un nivel de significancia α y hay una probabilidad de 100(1-α)% de correctamente no rechazar Ho cuando las dos medias poblacionales son iguales. Para un conjunto de K hipótesis, la probabilidad de correctamente no rechazar todas ellas es de (1-α) Κ, por lo que la de rechazar incorrectamente a todas es de 1- (1-α) Κ. Mientras mayor sea el número de muestras por pares a realizar, mayor será la probabilidad de error tipo I, lo cual hace más fácil rechazar la hipótesis nula, aún cuando sea verdadera.

Probabilidad de cometer al menos un error tipo I usando pruebas t para todas las K posibles parejas de los k grupos k K 0.1 0.05 0.01 0.005 0.0001 2 1 0.10 0.05 0.01 0.005 0.001 3 3 0.27 0.14 0.03 0.015 0.003 4 6 0.47 0.26 0.06 0.030 0.006 5 10 0.65 0.40 0.10 0.049 0.010 6 15 0.79 0.54 0.14 0.072 0.015 10 45 0.99 0.90 0.36 0.202 0.044 8 Nivel de significancia a usado en las pruebas t 1.00 1.00 1.00 1.00 1.00 Hay K = k (k- 1) / 2 comparaciones por pares de k medias. Posibles ajustes más adelante

Prueba no paramétrica para comparaciones múltiples. Prueba de Tukey. Comparaciones múltiples se pueden efectuar, usando sumas de rangos en vez de medias. Las sumas de rangos R i se ordenan por magnitud y se prueban de las sumas más distantes a las más cercanas. El error estándar se calcula como en caso de haber empates. La estadística de prueba es con valores críticos q. (Cf. J.H.Zar.- Biostatistical Analysis) SE = Q = ( R j " R i ) SE $ n(n + 1) #t ' $ & " ) 1 % 12 12(n " 1) ( & + 1 % n i que se contrasta n j ' ) (

Ejemplo Muestras Ordenadas de acuerdo a su rango medio ( i ) 1 2 4 3 Suma de Rango ( R i ) 55.0 132.5 163.5 145.0 Tamaño de Muestra 8 8 8 7 Rango medio ( R i ) 6.88 16.56 20.44 20.71 Muestra 4 y 3 son diferentes de la 1, pero en la muestra 2 hay ambigüedad

Cuando se prueba una sola hipótesis, generalmente nos interesa controlar la tasa de falsos positivos y maximizar al mismo tiempo la probabilidad de detectar un efecto positivo, cuando realmente existe, es decir, maximizar la potencia de la prueba. Al analizar expresión de genes, por ejemplo, se contrastan varios grupos y generalmente por pares. Cuando se aplican pruebas repetidas, el valor-p es conceptualmente aplicado a cada prueba (controla la tasa de falsos positivos en una prueba)

La cantidad más comúnmente controlada es la tasa de error de la familia de pruebas (FWER - familywise error rate). El ajuste que hace Bonferroni es dividir el nivel de significancia α preestablecido por K el número de pares de pruebas a realizar. Otros métodos están basados en la tasa de falsos descubrimientos (FDR) (rechazar Ho cuando es verdadera) Posibles resultados de K pruebas estadísticas Aceptar Hipotesis Nula Rechazar Hipótesis Nula Total Hipótesis Nula Cierta U V k o Hipótesis Alternativa Cierta T S k 1 W R K

La definición formal de FWER es P( V " 1) Benjamini y Hochberg definen la tasa de falsos descubrimientos como FDR = E[ V R R > 0 ] " P( R > 0) Donde V es el número de hipótesis rechazadas incorrectamente y R el número de hipótesis rechazadas (correcta o incorrectamente). El cociente V/R es considerado cero cuando R=0. Sin embargo no perdamos de vista que puede ser grande. ( ) P R = 0

El proceso de Benjamini y Hochberg propone ordenar los valores-p resultantes de las K pruebas, de modo que p (1) " p (2) "L " p (K ). Si calculamos k ˆ = { } arg max k : p (K ) " # $ k / K 1"k"K entonces rechazando las hipótesis nulas correspondientes a p (1),L, p ( k ˆ ) proporciona FDR = " # k 0 / K $ "

[ ] En la expresión de FDR el término E V R R > 0 es lo que se define como positive false discovery rate (pfdr) en el cual se condiciona que al menos un positivo haya ocurrido Por ello, cuando la prueba estadística viene de una mezcla aleatoria de las distribuciones de la hipótesis nula y la alternativa, pfdr puede escribirse como una probabilidad a-posteriori (Bayes). Bajo condiciones generales, V/R, FDR y pfdr convergen simultáneamente en todas las regiones de significancia a la forma de pfdr Bayesiana. pfdr puede ser usado para definir el valor-q que es el análogo al valor-p de las pruebas.

Interpretación Bayesiana pfdr se calcula sobre una región de significancia fija. Suponga que deseamos calcular K pruebas idénticas de una hipótesis nula versus una alternativa basada en las estadística T 1,T 2,L,T K. Para una región de significancia Γ, defimos # pfdr(") = E% V (") $ R(") R > 0 & ( ' Donde { } y R(") =# { T i : T i # "} V (") =# nulast i : T i # " Sea Hi =0 cuando la i-ésima hipótesis nula es verdadera y Hi =1 cuando es falsa (i =1,,K). Sea πo la probabilidad a-priori de que una hipótesis sea cierta y (1- πo) la de que sea falsa (Bernoulli).

pfdr = P( H = 0T " #) = = ( ) ( ) + 1 % $ o ( ) $ o P T " # H = 0 $ o P T " # H = 0 ( )P T " # H =1 $ o [ error tipo I de #] [ ] + ( 1% $ o )[ potencia de #] $ o error tipo I de # Al aumentar el error tipo I, aumenta pfdr y al aumentar la potencia en Γ, disminuye pfdr

( ) Al escribir pfdr como P H = 0T " # está relacionada con el error tipo I y la llamamos error tipo I a-posteriori (Bayes). Esta cantidad nos da una medida global en la que no se proporciona información específica de los valores de cada estadística, solo si cae o no en la región de rechazo Γ. Valor-q Proporciona una medida de error de la hipótesis a probar, para cada estadística observada con respecto a pfdr.

Ejemplo para calcular q-value ( T i,h ) i v.a.i.i.d. con T i H i ~ ( 1" H ) i # N( 0,1) + H i # N( 2,1) Dado que observamos las variables aleatorias T 1 = t 1,LT K = t K el valor " p puede ser calculado como valor " p(t i ) = P T i # t i H = 0 ( ) = P N(0,1) # t i ( ) Valor-p(ti) da la tasa de error tipo I si rechazamos cualquier estadística como un valor más extremo de ti Cf. ecuación diapositiva 21

pfdr(t t i ) involucra el cálculo del área bajo Ho a la derecha de t i (valor-p) y el área bajo H 1 a la derecha de t i (potencia de la prueba). Entonces pfdr(t t i ) es lo que llamamos valor-q(t i ) (una sola región de significancia)

Definiendo valor " q = inf pfdr (# $ ) = # $ :t %# $ inf P( H = 0T % # $ ) # $ :t %# $ vemos que el valor-q es una versión Bayesiana del valor-p p-value a-posteriori. (Bayes)

Referencias http://ftp.medprev.uma.es/libro/html.htm http://www.hrc.es/bioest/m_docente.html http://ocw.jhsph.edu/topics.cfm?topic_id=33 http://www.ncbi.nlm.nih.gov/pmc/articles/pmc1199583/?tool=pubmed http://projecteuclid.org/dpubs/repository/1.0/disseminate?view=body& id=pdf_1&handle=euclid.aos/1074290335