Comparación de variables continuas. Ventajas. Desventajas. Ventajas

Documentos relacionados
INFERENCIA ESTADÍSTICA. Metodología de Investigación. Tesifón Parrón

Introducción a la Estadística Aplicada en la Química

ÍNDICE INTRODUCCIÓN... 21

TEMA 10 COMPARAR MEDIAS

INDICE. Prólogo a la Segunda Edición

ANÁLISIS DESCRIPTIVO DE LOS DATOS DE VARIABLES CUANTITATIVAS

GUÍA 5 : EFECTO DEL ESTRÉS EN EL PESO DE RECIÉN NACIDOS

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

MANEJO DE VARIABLES EN INVESTIGACIÓN CLÍNICA Y EXPERIMENTAL

UNIVERSIDAD AUTÓNOMA DE NUEVO LEÓN FACULTAD DE CIENCIAS BIOLÓGICAS SUBDIRECCIÓN DE POSGRADO

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

INDICE 1. Qué es la Estadística? 2.Descripción de Datos: Distribuciones de Frecuencia y Presentación Gráfica

Estadísticos Aplicados en el SPSS 2008

Qué es lo que busca todo el mundo? Inferencia estadística. sticas. Intervalo de confianza. Hipótesis de trabajo

478 Índice alfabético

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

Pruebas para evaluar diferencias

Conceptos del contraste de hipótesis

Tema 10: Introducción a los problemas de Asociación y Correlación

CONTENIDO. Prólogo a la 3. a edición en español ampliada... Prólogo...

Contrastes de hipótesis paramétricos

INDICE Prefacio 1. Introducción 2. Distribuciones de frecuencia: tablas estadísticas y graficas

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

PROGRAMA DE ESTADÍSTICA DESCRIPTIVA

INDICE 1. Introducción 2. Recopilación de Datos Caso de estudia A 3. Descripción y Resumen de Datos 4. Presentación de Datos

ANÁLISIS DE DATOS. L.A. y M.C.E. Emma Linda Diez Knoth

ESTADISTICA II. INGENIERIA INFORMATICA, 3 ER Curso

Escuela Nacional de Estadística e Informática ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA ESPECIALIZACIÓN EN ESTADÍSTICA APLICADA

Estructura de este tema. Tema 3 Contrastes de hipótesis. Ejemplo

Tipo de punta (factor) (bloques)

1. Realice la prueba de homogeneidad de variancias e interprete los resultados.

ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA)

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

Diplomado en Estadística Aplicada

DIFERENCIAS EN LA UTILIZACIÓN DE LA BIBLIOTECA DEL IIESCA ANTE UN CAMBIO DE INFORMACIÓN

UNIVERSIDAD TECNICA PARTICULAR DE LOJA ESTADISTICA Y PROBABILIDAD ENSAYO N 8

PRUEBA DE HIPÓTESIS BENJAMIN MAMANI CONDORI

Tema: Medidas de Asociación con SPSS

Práctica 5 ANÁLISIS DE UNA MUESTRA INTERVALOS DE CONFIANZA CONTRASTE DE HIPÓTESIS

Índice general. Pág. N. 1. Capítulo 1 ETAPAS DE UNA INVESTIGACIÓN. Diseño. Población. Muestra. Individuo (Observación, Caso, Sujeto) Variables

Análisis Estadístico de Datos Climáticos. Pruebas de Hipótesis (Wilks, cap. 5)

ÍNDICE CAPÍTULO 1. INTRODUCCIÓN

A. PRUEBAS DE BONDAD DE AJUSTE: B.TABLAS DE CONTINGENCIA. Chi cuadrado Metodo G de Fisher Kolmogorov-Smirnov Lilliefords

ANÁLISIS CUANTITATIVO DE DATOS EN CIENCIAS SOCIALES CON EL SPSS (I) Tablas de contingencia y pruebas de asociación

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO. Facultad de Medicina Veterinaria y Zootecnia. Licenciatura en Medicina Veterinaria y Zootecnia

POBLACIÓN Y MUESTRAS EN LA INVESTIGACIÓN

MODELO DE RESPUESTAS Objetivos 2, 3, 4, 5, 6, 7, Y 8.

Departamento de Medicina Preventiva y Salud Publica e Historia de la Ciencia. Universidad Complutense de Madrid. SPSS para windows.

INDICE Capítulo I: Conceptos Básicos Capitulo II: Estadística Descriptiva del Proceso

Ejercicio 1 (20 puntos)

Objetivo: Comprender cómo se calculan los intervalos de confianza y determinar el tamaño ideal de una muetra

Universidad Rafael Belloso Chacín (URBE) Cátedra: Fundamentos de Estadística y Simulación Básica Semestre Profesor: Jaime Soto

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

Contrastes de Hipótesis paramétricos y no-paramétricos.

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Tema 2 Estadística Descriptiva

Pregunta 1. Pregunta 2. Pregunta 3. Pregunta 4. Pregunta 5. Pregunta 6. Pregunta 7. Comenzado el lunes, 25 de marzo de 2013, 17:24

Teorema Central del Límite (1)

Análisis de datos cualitativos

Tema 13 : Intervalos de probabilidad y confianza. Hipótesis y decisiones estadísticas.

Pruebas de Hipótesis Multiples

ACTIVIDAD PRÁCTICA 3 COMPARACIÓN DE DOS MUESTRAS INDEPENDIENTES Comparación de dos medias independientes (prueba t de Student, prueba paramétrica)

Pero qué hacemos cuando no se cumple la normalidad o tenemos muy pocos datos?

DISTRIBUCIONES BIDIMENSIONALES

Preparación de los datos de entrada

Método de cuadrados mínimos

SILABO POR ASIGNATURA 1. INFORMACION GENERAL. [AVILA LARREA JAVIER [INGENIERIA DE EMPRESAS]

CURSO: ANALISIS ESTADISTICO DE RIESGOS

Estadísticos Descriptivos

CLASE 10: RESUMEN DEL CURSO

PREGUNTAS TIPO EXAMEN- ESTADÍSTICA DESCRIPTIVA 2

Formulario. Estadística Administrativa. Módulo 1. Introducción al análisis estadístico

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

INFERENCIA PARAMÉTRICA: RELACIÓN ENTRE VARIABLES CUALITATIVAS Y CUANTITATIVAS

TEMA 5 VALIDEZ DE LA INVESTIGACIÓN (II): Validez de conclusión estadística

Matemática. Desafío. GUÍA DE EJERCITACIÓN AVANZADA Cálculo de medidas de dispersión y muestreo GUICEN041MT22-A16V1

Repaso Estadística Descriptiva

Indicaciones para el lector... xv Prólogo... xvii

07 Estimación puntual e introducción a la estadística inferencial

NOCIONES DE ESTADÍSTICA CURSO PRÁCTICO DE CLIMATOLOGÍA 2011

Análisis de la varianza

Tema 3: Análisis de datos bivariantes

CONTRASTES DE HIPÓTESIS

CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS

ESTADÍSTICA DESCRIPTIVA

Fase 2. Estudio de mercado: ESTADÍSTICA

Capítulo 13. Contrastes sobre medias: Los procedimientos Medias y Prueba T. Medias

Estadística Descriptiva. Poblaciones y muestras.

viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos

11. PRUEBAS NO PARAMÉTRICAS

FLORIDA Secundaria. 1º BACH MATEMÁTICAS CCSS -1- BLOQUE ESTADÍSTICA: ESTADÍSTICA VARIABLE UNIDIMENSIONAL. Estadística variable unidimensional

CUERPO TÉCNICO, OPCION ESTADISTICA

INFERENCIA ESTADISTICA

UAP PRUEBAS DE HIPÓTESIS NO PARAMÉTRICAS

SE OFRECE A ESTUDIANTES DE GRADO: SI X. MÓDULO DEL PLAN 2013 EN QUE ACREDITA: Módulo Metodológico DESCRIPTORES: Probabilidad y Estadística

Pruebas de Hipótesis-ANOVA. Curso de Seminario de Tesis Profesor QF Jose Avila Parco Año 2016

Medidas de posición relativa

Proyecto Tema 8: Tests de hipótesis. Resumen teórico

UNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL

Transcripción:

Comparación de variables continuas Familias param. y no-param. Familias paramétricas: Funciones de distribución caracterizadas por pocos parámetros Familias no paramétricas: Funciones de distribución que no se pueden caracterizar con pocos parámetros Métodos paramétricos: Métodos estadísticos válidos para la familia de las distribuciones normales Métodos no paramétricos: Métodos estadísticos válidos para una familia de distribuciones no paramétricas. También se les llama métodos estadísticos de distribución libre puesto que sus propiedades estadísticas no dependen de la distribución de la población que se estudia 2 Métodos o Paramétricos Ventajas Requieren pocas asunciones (normalidad) Ventajas Desventajas El cálculo manual es más rápido en muestras pequeñas Son a menudo más fáciles de entender Son relativamente insensibles a valores extremos 3 4 Ventajas Son aplicables en muchas situaciones donde los métodos paramétricos no lo son. Muchos métodos no paramétricos precisan sólo los rangos de las observaciones, en vez de la magnitud. Los métodos jacknife y boostrap permiten una aproximación en situaciones muy complicadas. El desarrollo de programas informáticos ha facilitado un rápido cálculo del p-valor en los métodos no paramétricos condicionados. Por eso, en principio, siempre es posible el cálculo exacto del p-valor. Desventajas Cuando las variables son normales (en cuyo caso ambos métodos son válidos) son menos eficientes (potentes). En este caso el p-valor excede al obtenido por métodos paramétricos. Así es más difícil encontrar un resultado significativo con una prueba no paramétrica. Aunque la diferencia no es muy grande El cálculo manual con muestras grandes es tedioso y largo Permiten menos refinamientos en el análisis posterior, más detallado, de los datos. 5 6

Tamaño de la muestra Un factor que limita la aplicabilidad de los métodos paramétricos es el tamaño de la muestra disponible para el análisis. Podemos asumir que la distribución de la muestra es normal aunque no estemos seguros si la variable en la población es normal, siempre que nuestra muestra sea suficientemente grande (p.e. 30 o 100 observaciones o más). Si nuestra muestra es pequeña, entonces estos métodos pueden ser usados solamente si estamos seguros de que la variable se distribuye normalmente y no hay manera de comprobar esta asunción si la muestra es pequeña. Rangos Puntuaciones Las pruebas no paramétricas usan el orden de los datos para su análisis Rango: El orden de cada uno de los datos Puntuación ( score ): Se transforma el rango en una puntuación para realizar la prueba estadística Los empates pueden tratarse de diferente manera 7 8 Ejemplo Rangos Puntuaciones Datos Median VW Savage Siegel-Tukey Ansari-Bradley Klotz Mood 1 1 0-1,33518-0,90000 1 1 1,78271 20,25 2 2 0-0,90846-0,78889 4 2 0,82530 12,25 3 3,5 0-0,47667-0,59246 6,5 3,5 0,22721 4 3 3,5 0-0,47667-0,59246 6,5 3,5 0,22721 4 4 5 0-0,11419-0,35437 10 5 0,01304 0,25 5 6,5 1 0,23147-0,02937 8,5 4,5 0,05358 1 5 6,5 1 0,23147-0,02937 8,5 4,5 0,05358 1 6 8 1 0,60459 0,42897 5 3 0,36553 6,25 7 9 1 0,90846 0,92897 3 2 0,82530 12,25 8 10 1 1,33518 1,92897 2 1 1,78271 20,25 Comprobación ormalidad Prueba de Kolmogorov-Smirnov SAS también realiza los estadísticos de Anderson-Darling y Cramer-von Mises Se basan en las diferencias entre la distribución observada y la esperada Estadístico de Shapiro-Wilks El SPSS versión 8 lo calcula para muestras 50 observaciones El SAS lo calcula para muestras 2000 observaciones 9 10 Comprobación ormalidad Hay que tener en cuenta que la capacidad de una prueba de rechazar la hipótesis nula (potencia) aumenta con el tamaño de la muestra Con tamaños de muestra grandes se pueden detectar desviaciones pequeñas de la normalidad Puesto que pequeñas desviaciones no afectan gravemente a la validez de las pruebas estadísticas es importante examinar otras pruebas y los gráficos Preguntas comunes Si las pruebas no paramétricas con válidas para los datos con o sin distribución normal, porqué no usarlos siempre? 11 12

Preguntas comunes Se prefieren las pruebas paramétricas porque: Raramente estamos interesados sólo en la significación estadística; muchas veces queremos conocer aspectos de la población original, y esto se consigue con estimadores e intervalos de confianza Preguntas comunes Las pruebas no paramétricas comparan medianas? Es difícil hacer un modelo flexible con las pruebas no paramétricas, por ejemplo para factores de confusión en regresión múltiple 13 14 Preguntas comunes Es una creencia común que la prueba de Mann- Whitney es, de hecho, una prueba para diferencias entre medianas. Sin embargo, dos grupos podrían tener la misma mediana y tener una prueba significativa. Considerar los siguientes datos de dos grupos con 100 observaciones. Grupo 1: 98 (0), 1, 2. Grupo 2: 51 (0), 1, 48 (2). La mediana en ambos casos es 0. Prueba de Mann-Whitney: p<0.0001 15 Elección de la prueba Datos independientes Variable Inicial Variable Resultado ominal Categórica Ordinal Cuantitativa (>2 categorías) Discreta ominal 2 o Fisher 2 2 -tendencia Manno Mann-W. Whitney Categórica (>2 cat.) Ordinal Cuantitativa Discreta Cuantitativa o-ormal Cuantitativa ormal Cuantitativa o-ormal Mann-Whitney o log-rank (1) Cuantitativa ormal t-student 2 2 Kruskal- Kruskal- Kruskal-Wallis Análisis de la Wallis Wallis varianza 2 -tendencia o (2) Spearman Spearman Spearman Spearman o Mann-Whitney regresión lineal Regresión Logística Regresión Logística Regresión Logística (2) (2) Spearman Spearman Spearman o regresión lineal (2) (2) (2) Gráfico datos y Pearson o Spearman (2) (2) (2) Regresión lineal Gráfico datos y Pearson o Spearman y regresión lineal Pearson y regresión lineal P.e. ensayo clínico: Var.de entrada=tipo de tratamiento (nominal). Var.resultado=Colesterol (cuant.normal). t-student P.e. Var.de entrada=puntuación clínica (cuantitativa). Var.resultado=Curación (nominal). Regresión logística (1) Si los datos son censurados (2) Hay muchas técnicas avanzadas. Sin embargo, requieren ciertas asunciones y a menudo es más fácil dicotomizar la variable resultado o tratarla como continua 16 Elección de la prueba Datos apareados Variable ominal Ordinal (Categorías ordenadas) Cuantitativa (Discreta o o-ormal) Cuantitativa (ormal) Prueba Mcemar t-test para datos apareados Estimación y análisis 17

Supón que todos los datos numéricos de tu muestra son cuantitativos y procede en consecuencia. Puede que el ordenador te calcule la media de la situación civil RESULTADOS Situación civil 3,4 Sexo 2,3 Conduce 1,3 o compruebes si tus datos siguen una ley normal. Las pruebas no paramétricas no son tan divertidas. 19 20 K-S de 1 muestra / ormal H 0 : ORMALIDAD H 1 : O ORMALIDAD Prueba de Kolmogorov-Smirnov para una muestra hombre Parámetros normales a,b Media egativa Parámetros normales a,b Media egativa a. La distribución de contraste es la ormal. IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 b. Se han calculado a partir de los datos. 21 22 K-S de 1 muestra / ormal K-S de 1 muestra / ormal H 0 : ORMALIDAD H 1 : O ORMALIDAD H 0 : ORMALIDAD H 1 : O ORMALIDAD Prueba de Kolmogorov-Smirnov para una muestra Prueba de Kolmogorov-Smirnov para una muestra hombre Parámetros normales a,b Parámetros normales a,b Media egativa Media egativa IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 hombre Parámetros normales a,b Parámetros normales a,b Media egativa Media egativa IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 a. La distribución de contraste es la ormal. a. La distribución de contraste es la ormal. b. Se han calculado a partir de los datos. 23 b. Se han calculado a partir de los datos. 24

0 1 2 3 4 5 x 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 x^0.25 Pueden haber muchas formas......y O hay normalidad (A) (B) Transformar la variable 0 50 100 150 x (C) (D) Raíz cuarta de algo? 0 20 40 60 80 x^0,25 25 26 o pasa nada, hay otras técnicas Técnicas basadas en Rangos Puntuaciones Signos Son independientes las variables? 27 28 Métodos Ejemplo de los gemelos Métodos paramétricos Coef. de correlación de Pearson Métodos no paramétricos Coef. de correlación de Spearman Kendall tau Clark y cols. realizaron diferentes pruebas psicológicas en gemelos bicigóticos (p.e. no idénticos) para comprobar si había relación entre entre ellas. Pareja 1 2 3 4 5 6 7 8 Gemelo 1 277 169 157 139 108 213 232 229 Gemelo 2 256 118 137 144 146 221 184 188 9 114 97 10 232 231 11 161 114 12 149 187 29 13 128 230 30

Si lo graficamos... 300 250 200 150 100 50 50 100 150 200 250 300 31 32 Coef. de correlación de Pearson GEMELO1 GEMELO2 Correlations Pearson Correlation Sig. (2-tailed) Pearson Correlation Sig. (2-tailed) GEMELO1 GEMELO2 1,000,649*,,016 13 13,649* 1,000,016, 13 13 *. Correlation is significant at the 0.05 level (2-tailed). Se interpreta en términos de variabilidad explicada 33 34 Kendall tau Coef. de correlación de Spearman GEMELO1 GEMELO2 GEMELO1 Correlation Coefficient 1.000 0.514 Sig. (2-tailed), 0.072 13 13 GEMELO2 Correlation Coefficient 0.514 1.000 Sig. (2-tailed) 0.072, 13 13 Al igual que el coef. de correlación de Pearson se interpreta en términos de variabilidad explicada. La diferencia es que el coef. de Spearman se calcula con rangos. GEMELO1 GEMELO2 GEMELO1 Correlation Coefficient 1,000 0,348 Sig. (2-tailed), 0,099 13 13 GEMELO2 Correlation Coefficient 0,348 1,000 Sig. (2-tailed) 0,099, 13 13 Es similar a Spearman en términos. Sin embargo son muy diferentes en cuanto a la magnitud puesto que los cálculos son muy diferentes (Spearman: rangos; Kendall: signos). Se interpreta como la diferencia entre la probabilidad que en los datos observados las dos variables estén en el mismo orden versus la probabilidad que las dos variables estén en diferente orden. 35 36

Métodos U de Mann Whitney - Independencia observaciones - Distribución de Probabilidad contínua IDEPEDIETES Este test fue desarrollado en 1945 por y después ampliado por Mann y Whitney en 1947. De ahí que en algunos libros se denomine test de y en otros la prueba U de Mann- Whitney. 38 Características Que en términos de eficiencia... El test, también denominado test de Wilconxon-Mann-Whitney, o test de la suma de rangos de, evalúa los rangos de las puntuaciones combinadas de dos grupos independientes. Es el test no paramétrico con más potencia estadística. E n Paramétrico o _ Paramétrico Siendo n el tamaño muestral necesario para conseguir Una determinada potencia del test. Para el caso de la E=95, es decir, si para el test paramétrico se necesita n=100, para el homólogo no paramétrico es suficiente con 95 39 40 Pero qué supone el Test? Supone que la forma de las muestras a comparar son la misma, sin tener en cuenta dicha forma Cómo trabaja? Este test examina la siguiente hipótesis nula: - La probabilidad de que una observación obtenida al azar de la primera población supere una observación aleatoria de la segunda población es igual a 1/2. El test es sensible a diferencias de medianas Poco sensible a diferencias de asimetría Insensible a diferencias de varianzas Resistente a los outliers 41 42

Ejemplo V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) V. CUATITATIVA ORMALE AMBOS GRUPOS Grupos independientes V. CUATITATIVA O ORMAL E ALGU GRUPO COMPARACIÓ DE MEDIAS 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados 43 V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 44 V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 45 46 47 48

K-S de 1 muestra / ormal K-S de 1 muestra / ormal H 0 : ORMALIDAD H 1 : O ORMALIDAD Prueba de Kolmogorov-Smirnov para una muestra H 0 : ORMALIDAD H 1 : O ORMALIDAD hombre Parámetros normales a,b Media egativa Parámetros normales a,b Media egativa a. La distribución de contraste es la ormal. IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 hombre Prueba de Kolmogorov-Smirnov para una muestra Parámetros normales a,b Media egativa Parámetros normales a,b Media egativa IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 b. Se han calculado a partir de los datos. a. La distribución de contraste es la ormal. 49 b. Se han calculado a partir de los datos. 50 K-S de 1 muestra / ormal H 0 : ORMALIDAD H 1 : O ORMALIDAD Prueba de Kolmogorov-Smirnov para una muestra hombre Parámetros normales a,b Media egativa Parámetros normales a,b Media egativa a. La distribución de contraste es la ormal. IICIAL 23 89.57 3.47.115.075 -.115.552.921 27 80.22 5.37 -.105.931.352 b. Se han calculado a partir de los datos. 51 52 V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 53 54

H 0 : H 1 : 55 56 H 0 : H 1 : H 0 : H 1 : Estadísticos del grupo Estadísticos del grupo IICIAL hombre Error típ. Desviación de la Media típ. media 23 89.57 3.47.72 27 80.22 5.37 1.03 IICIAL hombre Error típ. Desviación de la Media típ. media 23 89.57 3.47.72 27 80.22 5.37 1.03 Prueba de muestras independientes Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias IICIAL Se han asumido varianzas iguales Intervalo de confianza Error típ de para la diferencia Sig. Diferencia la F Sig. t gl de medias (bilateral) diferencia Inferior Superior 3.896.054 7.163 48.000 9.34 1.30 6.72 11.97 IICIAL Se han asumido varianzas iguales Intervalo de confianza Error típ de para la diferencia Sig. Diferencia la F Sig. t gl de medias (bilateral) diferencia Inferior Superior 3.896.054 7.163 48.000 9.34 1.30 6.72 11.97 o se han asumido varianzas iguales 7.406 45.009.000 9.34 1.26 6.80 11.88 o se han asumido varianzas iguales 7.406 45.009.000 9.34 1.26 6.80 11.88 H 0 : 57 58 H 0 : H 1 : H 0 : H 1 : Estadísticos del grupo Estadísticos del grupo IICIAL hombre Error típ. Desviación de la Media típ. media 23 89.57 3.47.72 27 80.22 5.37 1.03 IICIAL hombre Error típ. Desviación de la Media típ. media 23 89.57 3.47.72 27 80.22 5.37 1.03 Prueba de muestras independientes Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias IICIAL Se han asumido varianzas iguales Intervalo de confianza Error típ de para la diferencia Sig. Diferencia la F Sig. t gl (bilateral) de medias diferencia Inferior Superior 3.896.054 7.163 48.000 9.34 1.30 6.72 11.97 IICIAL Se han asumido varianzas iguales Intervalo de confianza Error típ de para la diferencia Sig. Diferencia la F Sig. t gl (bilateral) de medias diferencia Inferior Superior 3.896.054 7.163 48.000 9.34 1.30 6.72 11.97 o se han asumido varianzas iguales 7.406 45.009.000 9.34 1.26 6.80 11.88 o se han asumido varianzas iguales 7.406 45.009.000 9.34 1.26 6.80 11.88 H 0 : H 0 : 59 60

V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 61 62 2 muestras independientes / H 0 : U= 1*2 H 1 : U 1*2 63 64 2 muestras independientes / H 0 : U= 1*2 = 23*27 H 1 : U 1*2 2 = 310.5 310.5 2 IICIAL hombre Total Rangos Rango Suma de promedio rangos 23 36.65 843.00 27 16.00 432.00 50 2 muestras independientes / H 0 : U= 1*2 = 23*27 = 310.5 H 1 : U 1*2 310.5 2 2 Rangos Rango Suma de promedio rangos IICIAL hombre 23 36.65 843.00 27 16.00 432.00 Total 50 Estadísticos de contraste a W de Z IICIAL 54.000 432.000-5.003.000 a. Variable de agrupación: 65 Estadísticos de contraste a W de Z IICIAL 54.000 432.000-5.003.000 a. Variable de agrupación: 66

V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 67 68 V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 69 70 H 0 : d H 1 : d 71 72

H 0 : d H 1 : d H 0 : d H 1 : d Estadísticos de muestras relacionadas Estadísticos de muestras relacionadas Par 1 IICIAL FIAL Error típ. Desviación de la Media típ. media 84.52 50 6.54.93 79.68 50 7.38 1.04 Par 1 IICIAL FIAL Error típ. Desviación de la Media típ. media 84.52 50 6.54.93 79.68 50 7.38 1.04 Correlaciones de muestras relacionadas Correlaciones de muestras relacionadas Par 1 IICIAL y FIAL Correlación Sig..571.000 50 Par 1 IICIAL y FIAL Correlación Sig..571.000 50 Prueba de muestras relacionadas Prueba de muestras relacionadas Diferencias relacionadas Diferencias relacionadas Par 1 IICIAL - FIAL Intervalo de confianza Error típ. para la diferencia Desviación de la Sig. Media típ. media Inferior Superior t gl (bilateral) 4.84 6.49.92 3.00 6.68 5.272 49.000 Par 1 IICIAL - FIAL Intervalo de confianza Error típ. para la diferencia Desviación de la Sig. Media típ. media Inferior Superior t gl (bilateral) 4.84 6.49.92 3.00 6.68 5.272 49.000 73 74 V. CUATITATIVA.vs. V. CUALITATIVA (2 grupos) Grupos independientes V. CUATITATIVA ORMAL E AMBOS GRUPOS COMPARACIÓ DE MEDIAS V. CUATITATIVA O ORMAL E ALGU GRUPO 2 muestras independientes / V. DIFERECIA ORMAL Grupos apareados V. DIFERECIA O ORMAL 2 muestras relacionadas / ORMALIDAD? Estadísticos / K-S de 1 muestra / ormal 75 76 2 muestras relacionadas / H 0 : T= n (n+1) H 1 : T n (n+1) 77 78

2 muestras relacionadas / 2 muestras relacionadas / H 0 : T= n (n+1) = 49*50 4 = 612.5 H 1 : T n (n+1) 612.5 Rangos H 0 : T= n (n+1) = 49*50 = 612.5 H 1 : T n (n+1) 612.5 4 Rangos FIAL - IICIAL Rangos negativos Rangos positivos Empates Total Rango Suma de promedio rangos 38 a 27.68 1052.00 11 b 15.73 173.00 1 c 50 FIAL - IICIAL Rangos negativos Rangos positivos Empates Total Rango Suma de promedio rangos 38 a 27.68 1052.00 11 b 15.73 173.00 1 c 50 a. FIAL < IICIAL a. FIAL < IICIAL b. FIAL > IICIAL b. FIAL > IICIAL c. IICIAL = FIAL c. IICIAL = FIAL Estadísticos de contraste b Estadísticos de contraste b Z FIAL - IICIAL -4.379 a.000 Z FIAL - IICIAL -4.379 a.000 a. Basado en los rangos positivos. a. Basado en los rangos positivos. b. Prueba de los rangos con signo de b. Prueba de los rangos con signo de 79 80 Comparación de dos medianas Sirve para comprobar si dos muestras aleatorias independientes y cuyos datos se miden por lo menos en una escala ordinal proceden de poblaciones con la misma mediana. Es una forma alternativa de testar la hipótesis nula 1 = 2 Si ambas muestras proceden de poblaciones con la misma mediana, cabe esperar bajo H 0 que la mitad de valores de una muestra y la mitad de la otra han de ser superiores a la mediana de la población. ATECIÓ: sólo un 64% de eficiencia respecto a una T de Student. Trabajo previo Determinar la mediana combinada de las observaciones de las Muestras n 1 + n 2 Contar cuántas observaciones en cada grupo caen por encima y por debajo de la mediana combinada (Tabla de contingencia 2 x 2) Realizar un contraste de hipótesis tipo Ji al cuadrado o prueba Exacta de Fisher (según frecuencia esperada) 81 82 La tabla en cuestión......y las consideraciones del tamaño Muestra 1 Muestra 2 Total Si n 1 +n 2 > 40 2 con corrección de Yates Valores superiores a la mediana Valores inferiores a la mediana A B A+B C D C+D Si 20 < n 1 +n 2 >40 2 con Yates, si no hay freq. Esperadas <5, en tal caso Fisher A+C B+D 1+2 Si n 1 +n 2 < 20 Prueba exacta de Fisher 83 84

Trat Control 80 96 77 79 76 74 82 82 83 69 84 72 75 94 69 77 97 77 71 97 85 75 74 69 98 95 88 78 96 73 72 83 75 70 94. Un ejemplo Mediana Tratamiento 81 Mediana Control 77 Mediana combinada 78 Los cálculos Obtenidas Trat Control Total <Me 8 10 18 >Me 10 7 17 Total 18 17 35 Esperadas Trat Control Total <Me 9.257 8.743 18 >Me 8.743 8.257 17 Total 18 17 35 Estadístico 2 = 0.7237 Valor de p= 0.3949 85 86 Independientes 87 Test H de Kruskal-Wallis Aplicación El punto de partida del test H de Kruskal Wallis es el mismo que para la U Se ordenan las n observaciones de las k muestras en una única serie creciente y se les asigna números de rango (desde 1 hasta n) Sea R i la suma de rangos de la muestra i-ésima Si se cumple la hipótesis nula, y para valores de n suficientemente grandes (en la práctica n i 5 y k 4), el estadístico Que sigue una distribución 2 con k-1 grados de libertad 89 90

Interpretación de los primeros resultados Queda claro que las muestras son diferentes pero cuáles son distintas entre sí. Se ordenan las sumas de rangos de las k muestras de mayor a menor como en las comparaciones paramétricas de Tukey) Se empieza comparando la suma de rangos mayor con la menor Solución elegante Realización de un AOVA con rangos El SAS lo hace previo cambio de los datos a rangos (Proc Rank) Permite la interpretación de los resultados vía la típica tabla de Análisis de la Varianza Se divide la diferencia de rangos por el error estándar apropiado par obtener un estadístico de distribución conocida. En esta caso Q. 91 92 Ejemplo: Comparación de más de 2 muestras relacionadas. Test de Friedman Comparación de la eficacia de k=4 muestras de penicilina por el método de la difusión en placas. La experiencia se realiza con n=3 placas de agar de 9 cm de diámetro cada una en las que se cultiva B. Subtilis (bacilo de heno). Dependientes En cada una de las placas se deposita una cantidad fija de penicilina y se extiene provocando la inhibición de crecimiento de la B.subtilis. El diámetro de la zona de inhibición es proporcional a la concentración de penicilina. Se pregunta si los diámetros de las zonas de inhibición presentan alguna diferencia. 94 Comparación de más de 2 muestras relacionadas. Test de Friedman Comparación de más de 2 muestras relacionadas. Test de Friedman Análisis de la variancia de un diseño experimental de bloques con una observación por celda. Disoluciones de penicilina Placa nº 1 2 3 4 1 27 23 26 21 2 27 23 25 21 3 25 21 26 20 Disoluciones de penicilina Placa nº 1 2 3 4 1 4 2 3 1 2 4 2 3 1 3 3 2 4 1 Suma de rangos 11 6 10 3 95 H 0 : el diámetro de las zonas de inhibición son las mismas en todas las disoluciones de penicilina b= nº de bloques a=nº de tratamientos 96

Comparación de más de 2 muestras relacionadas. Test de Friedman Resultados iniciales con SPSS Estadísticos descriptivos El test de Friedman se puede considerar que se aproxima a una distribución ji cuadrado con a-1 grados de libertas Desviación Percentiles Media típica MínimoMáximo 25 0 (Mediana 75 Disolució 3 6.3333 1.1547 25.00 27.00 5.0000 27.0000 7.0000 Disolució 3 2.3333 1.1547 21.00 23.00 1.0000 23.0000 3.0000 Disolució 3 5.6667.5774 25.00 26.00 5.0000 26.0000 6.0000 Disolució 3 0.6667.5774 20.00 21.00 0.0000 21.0000 1.0000 Rangos Rango Estadísticos de contraste a Se rechaza la hipótesis nula de igualdad de las cuatro soluciones Disolución 1 Disolución 2 Disolución 3 Disolución 4 promedio 3.67 2.00 3.33 1.00 Chi-cuadrado gl Sig. asintót. Sig. exacta 3 8.200 3.042.017 Probabilidad en el punto.016 97 a. Prueba de Friedman 98 Muestras relacionadas:cochra Prueba 1 Prueba 2 Prueba 3 Prueba 4 0 1 0 0 1 0 1 0 1 0 1 0 1 0 0 0 1 0 0 0 1 1 1 0 1 0 0 0 1 0 0 0 P1 P2 P3 P4 Frecuencias Valor 0 1 1 7 6 2 5 3 8 0 Estadísticos de contraste Variables binarias Q de Cochran gl Sig. asintót. Sig. exacta Probabilidad en el punto a. 0 se trata como un éxito. 8 12.000 a 3.007.006.004 99