CONTRASTES PARAMÉTRICOS

Documentos relacionados
CONTRASTES PARAMÉTRICOS

Análisis de varianza de medidas repetidas

CONTRASTES NO PARAMÉTRICOS

INFERENCIA PARÁMETRICA: RELACIÓN ENTRE DOS VARIABLES CUALITATIVAS

Prueba t para muestras independientes

Elaborado por: Pelay, C. y Pérez, J. Prueba t para muestras independientes

1. Realice la prueba de homogeneidad de variancias e interprete los resultados.

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

ANALISIS DE LA VARIANZA PARA MEDIDAS REPETIDAS

7. De acuerdo con la gráfica siguiente, el contraste estadístico es:

ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA)

TEMA 10 COMPARAR MEDIAS

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

CONTRASTES DE HIPÓTESES

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

ESTADÍSTICA 1º AMBIENTALES TERCERA PRÁCTICA: INTERVALOS DE CONFIANZA & CONTRASTES DE HIPÓTESIS (GUIADA & RESUELTA)

Estructura de este tema. Tema 3 Contrastes de hipótesis. Ejemplo

Intervalos de Confianza

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

TEMA 2 Diseño de experimentos: modelos con varios factores

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

Cuando los ceros de la p sí importan

1. Identifique el tipo de diseño que se ha utilizado en esta investigación.

DISEÑO Y ANÁLISIS DE DATOS II. PRIMER PARCIAL. NOVIEMBRE 2016.

CONVERGENCIA EN EL ESPACIO EUROPEO DE EDUCACIÓN SUPERIOR

Capítulo 13 Contrastes sobre medias Los procedimientos Medias y Prueba T

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

ANALIZAR Comparar medias

Tema 18 Análisis de la varianza de un factor (ANOVA) Contraste paramétrico de hipótesis

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

14 horas. 20 horas

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

Capítulo 13. Contrastes sobre medias: Los procedimientos Medias y Prueba T. Medias

ESTADÍSTICA APLICADA. Tema 3: Contrastes de hipótesis

Para poder analizar los diferentes objetivos e hipótesis planteados, se llevaron a. Correlaciones entre las distintas Variables objeto de estudio.

Ejercicio obligatorio seminario 9. Estadística

DISEÑO CON MÁS DE DOS CONDICIONES (A>2) ANOVA unifactorial con A>2 y contraste de hipótesis específicas

DISTRIBUCIONES BIDIMENSIONALES

Regresión con variables independientes cualitativas

TABLAS DE CONTINGENCIA

Estadísticos para una muestra. Desviación Error típ. de Prueba para una muestra

T. 4 Inferencia estadística acerca de la relación entre variables (II): el análisis de varianza (ANOVA).

Cuestiones: Variable dependiente, variable independiente, variable extraña

CONTRASTE DE HIPÓTESIS

Pruebas de Hipótesis-ANOVA. Curso de Seminario de Tesis Profesor QF Jose Avila Parco Año 2016

DISEÑO Y ANÁLISIS DE DATOS II. PRIMER PARCIAL. NOVIEMBRE 2015

Curso de Estadística Aplicada a las Ciencias Sociales. Tema 12. Contraste de hipótesis. Introducción. Introducción

PRÁCTICA 6: CONTASTE DE HIPÓTESIS

Estadística II Examen final junio 27/6/17 Curso 2016/17 Soluciones

Práctica 5 ANÁLISIS DE UNA MUESTRA INTERVALOS DE CONFIANZA CONTRASTE DE HIPÓTESIS

REGRESIÓN Y ESTIMACIÓN TEMA 1: REGRESIÓN LINEAL SIMPLE

Respuestas Conceptos Básicos

Capítulo 14 Análisis de varianza de un factor El procedimiento ANOVA de un factor

Estadística aplicada a la comunicación

Artículo de los payasos

Estadística II Examen final junio - 17/06/16 Curso 2015/16 Soluciones Duración del examen: 2 h. y 45 min.

Tipo de punta (factor) (bloques)

Regresión con variables independientes categóricas

INFERENCIA CON RECUENTOS

ANÁLISIS DE DATOS EN PSICOLOGÍA II CUADERNO DE PRÁCTICAS DE SPSS. Ludgerio Espinosa Antonio Pardo Javier Revuelta Rafael San Martín

ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA


El Análisis de Correspondencias tiene dos objetivos básicos:

Pruebas de Hipótesis Multiples

Universidad Autónoma de Madrid Probabilidad y Estadística

USO AVANZADO HOJA DE CALCULO EN CFGS LABORATORIO ANÁLISIS Y CONTROL DE CALIDAD

Preguntas Estimación

Al nivel de confianza del 95%, las puntuaciones típicas son: 2- La hipótesis alternativa es; A) ; B) ; C).

Sujeto Grupo C.I. 1 A B A 98 4 A B 99. Sujeto TCMañ TCtar

LECCIÓN PÚBLICA. Tema 5 Algunas Pruebas de Hipótesis. Profa. María Fátima Dos Santos

Anova unifactorial Grados de Biología y Biología sanitaria

Diseño de experimentos - prueba de hipótesis.

Estadísticos Aplicados en el SPSS 2008

CONCEPTOS BÁSICOS DE INFERENCIA ESTADÍSTICA

ANOVA I ES EL ANÁLISIS DE LA VARIANZA DE UN FACTOR

Caso particular: Contraste de homocedasticidad

ANÁLISIS DE EXPERIMENTOS

2.4. Medidas de variabilidad o dispersión

U ED Tudela Diseños de Investigación y Análisis de Datos - Tema 7

Y ± E max 37,3 ± 0,866 (36,43; 38,17)

Supuestos y comparaciones múltiples

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

Tema 13 : Intervalos de probabilidad y confianza. Hipótesis y decisiones estadísticas.

UNED. DISEÑOS DE INVESTIGACIÓN Y ANÁLISIS DE DATOS [TEMA 6] Análisis de datos en diseños intra-sujetos

Contrastes basados en el estadístico Ji Cuadrado

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA I TRABAJO 4. COMPARACIÓN DE MEDIAS

INFERENCIA PARAMÉTRICA: RELACIÓN ENTRE VARIABLES CUALITATIVAS Y CUANTITATIVAS

Práctica de ANÁLISIS DE LA VARIANZA.

Estadística II Examen Final 19/06/2015 Soluciones. Responda a las preguntas siguientes en los cuadernillos de la Universidad

Métodos Cuantitativos

Objetivo: Proponer modelos para analizar la influencia

Comparación de dos grupos independientes Solución no paramétrica. En capítulo 12: Métodos no paramétricos

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

lasmatemáticas.eu Pedro Castro Ortega materiales de matemáticas Expresiones algebraicas. Ecuaciones de primer grado

El diseño factorial: efecto de la interacción. (Modelo no aditivo)

ALTERNATIVAS NO PARAMÉTRICAS AL ANÁLISIS DE LA VARIANZA

5.5 Modelo de regresión. se especificó en los términos siguientes: (6.3.1) 1,2,3,..N. Donde:

Transcripción:

CONTRASTES PARAMÉTRICOS

Contenidos Introducción 75 Contraste de dos medias 76 Grupos independientes 77 Grupos dependientes 85 Contraste de dos varianzas independientes 92 ANOVAs Unifactoriales entre e intrasujetos 94 En busca de la poción mágica 95 La comparación de las medias 97 Medias cuadráticas (también llamadas varianzas) 100 Prueba F 105 Y el efecto de la cafeína? 106 Pruebas post hoc (o a posteriori) 107 Análisis de varianza de medidas repetidas 111 Pedro Valero Mora-valerop@uv.es 74

Introducción INTRODUCCIÓN El mecanismo de las pruebas de hipótesis se puede extender a otras situaciones diferentes a comparar si la media de una muestra es compatible con un valor teórico de la población En este tema aplicaremos este mecanismo a: - Examinar si las medias de dos muestras son iguales o diferentes - Examinar si las varianzas de dos muestras son iguales o diferentes - Examinar si las medias de varias muestras (generalmente más de dos) son diferentes Pedro Valero Mora-valerop@uv.es 75

Contraste de dos medias CONTRASTE DE DOS MEDIAS En el contraste de dos medias hay dos casos diferentes: - Cuando las unidades son independientes entre sí - Cuando las unidades van por pares y lo importante es ver la diferencia entre cada par Explicaremos esa diferencia a continuación Pedro Valero Mora-valerop@uv.es 76

Contraste de dos medias/grupos independientes Grupos independientes La seguridad es una de las áreas en los que los psicólogos tenemos bastante qué decir - Aunque existen muchas medidas de seguridad, su uso y sus posibles beneficios están muy relacionados con aspectos psicológicos, con efectos muy paradójicos Un ejemplo es el estudio de Ian Walker - En él se plantea si llevar casco cuando uno monta en bicicleta es bueno o malo para la seguridad del ciclista y encuentra que es más peligroso llevar casco que no llevarlo - Vamos a analizar los datos de su estudio para ver por qué hace esta afirmación Pedro Valero Mora-valerop@uv.es 77

Contraste de dos medias/grupos independientes Explorando los resultados Antes de hacer un análisis de comparación de medias es conveniente hacer un gráfico de cajas - Nos tenemos que fijar en las líneas del centro de las cajas que nos indican si hay diferencias - También es importante la anchura de las cajas y si los extremos están alejados - Hay también indicación de puntos extremos que a veces pueden ser muy exagerados,000 En este caso vemos que cuando los ciclistas llevaban casco los coches pasaban algo más cerca que cuando no lo llevaban - No obstante, es la diferencia significativa? Distancia al pasar 4,000 3,000 2,000 1,000 1.801 2.067 1.395 1.265 1.209 303 2.053 1.727 792 2.048 1.636 2.327 1.760 1.124 2.065 1.568 Sin casco helmet 122 1.271 1.510 1.520 13 177 734 1.412 724 Con casco Pedro Valero Mora-valerop@uv.es 78

Contraste de dos medias/grupos independientes Diferencias en medias El comando de SPSS pruebas t para muestras independientes produce el siguiente resultado Estadísticas de grupo helmet N Media Desviación estándar Media de error estándar Distancia al pasar Sin casco 1206 1,35544,405296,011671 Con casco 1149 1,27032,354074,010446 Distancia al pasar Se asumen varianzas iguales No se asumen varianzas iguales Prueba de Levene de calidad de varianzas F Sig. t gl Prueba de muestras independientes Sig. (bilateral) prueba t para la igualdad de medias Diferencia de medias Diferencia de error estándar 95% de intervalo de confianza de la diferencia Inferior Superior 11,597,001 5,417 2353,000,085125,015714,054311,115939 5,435 2335,624,000,085125,015663,054411,115839 - Este test nos permite saber si las diferencias que hemos observado son significativas. A continuación lo explicaremos paso a paso Pedro Valero Mora-valerop@uv.es 79

Contraste de dos medias/grupos independientes Estadísticas de grupo Estadísticas de grupo Desviación Media de error helmet N Media estándar estándar Distancia al pasar Sin casco 1206 1,35544,405296,011671 Con casco 1149 1,27032,354074,010446 - En esta parte tenemos el número de casos y la media de la distancia de adelantamiento cuando el ciclista llevaba casco y no llevaba casco Vemos que efectivamente hay una pequeña diferencia a favor de los que no llevaban casco, pero es esa diferencia significativa? - También vemos la desviación típica de ambos grupos. La diferencia es también pequeña, con menor variabilidad cuando se llevaba casco Probar si esa diferencia es significativa es más complicado que hacerlo para las medias pero es importante que no haya diferencias enormes en la desviación típica - Error típico de la media En este caso vemos que hay dos errores típicos ya que tenemos dos muestras o grupos de datos. Los errores típicos pueden calcularse con la fórmula que aprendimos en su momento: Errortipico s ----------- n 1 n En nuestro caso por ejemplo: Error típico Sin casco=0,406/raiz(1206)=0,0116 = Pedro Valero Mora-valerop@uv.es 80

Contraste de dos medias/grupos independientes Prueba de muestras independientes Distancia al pasar Se asumen varianzas iguales No se asumen varianzas iguales Prueba de Levene de calidad de varianzas F Sig. t gl Prueba de muestras independientes Sig. (bilateral) prueba t para la igualdad de medias Diferencia de medias Diferencia de error estándar Iremos viendo paso a paso como se calculan los diferentes valores de esta tabla 95% de intervalo de confianza de la diferencia Inferior Superior 11,597,001 5,417 2353,000,085125,015714,054311,115939 5,435 c 2335,624 d,000 e,085125 a,015663 b,054411 f,115839 f - 1) En esta prueba se trata de calcular el estadístico de contraste t que aparece ahí. Para ello usamos una fórmula muy parecida a la del estadístico de contraste que usamos en su momento. Estadístico de Contraste Estimación Puntual Valor Teórico Error Típico - La diferencia está en que en este caso no tenemos un valor teórico sino que tenemos dos estimaciones puntuales (una por cada grupo) y dos errores típicos. Por eso la fórmula del Estadístico de contraste es: t = x 1 x --------------- 2 ET Pedro Valero Mora-valerop@uv.es 81

Contraste de dos medias/grupos independientes - Hay dos formas de calcular el error típico y por eso hay dos líneas en la tabla de resultados que parece que repitan la misma información La primera de las líneas asume que las varianzas de los grupos son iguales y la segunda no. En la práctica, si usamos la segunda línea no nos equivocaremos nunca, no obstante, en muchos libros aparecen explicadas las dos opciones Para calcular el error típico de la diferencia (marcado con una b en la tabla) lo que hacemos es coger los errores medios típicos y combinarlos. La fórmula que se usa es: 2 ET = ET 1 + ET 2 2 En nuestro ejemplo: ET = 0 011671 2 + 0 010446 2 = 0 015663 Este es el valor que aparece en la tabla como b (los valores para los calculos los he cogido de aquí) Estadísticas de grupo Desviación Media de error helmet N Media estándar estándar Distancia al pasar Sin casco 1206 1,35544,405296,011671 Con casco 1149 1,27032,354074,010446-2) El valor a en la tabla es la diferencia entre las medias de los dos grupos Pedro Valero Mora-valerop@uv.es 82

Contraste de dos medias/grupos independientes - 3) El valor c es la división entre a y b en la tabla - 4) El valor d en la tabla se denominan grados de libertad y permiten valorar el estadístico de contraste con la distribución de t. En este caso son un poco complicados de calcular así que no explicaré la fórmula. Como utilizaremos el SPSS, este valor aparecerá automáticamente. - 5) Finalmente, el valor e indica si las diferencias (el valor a en la tabla) son significativas: Si es mayor que 0.05 no podemos rechazar la hipótesis nula de no diferencias entre las medias a un nivel de confianza del 95% Si es menor que 0.05 podemos rechazar la hipótesis nula de no diferencias entre las medias a un nivel de confianza del 95% Pedro Valero Mora-valerop@uv.es 83

Contraste de dos medias/grupos independientes Volviendo a nuestro ejemplo En este caso rechazamos la hipótesis nula de no diferencias entre las medias Distancia al pasar Se asumen varianzas iguales No se asumen varianzas iguales - Al parecer, cuando el ciclista llevaba puesto el casco, los conductores le pasaban a una distancia media diferente de cuando no llevaba puesto el casco - Cuando llevaba puesto el casco la distancia media de adelantamiento era menor Algunas reflexiones finales Estadísticas de grupo helmet N Media Desviación estándar Media de error estándar Distancia al pasar Sin casco 1206 1,35544,405296,011671 Con casco 1149 1,27032,354074,010446 Prueba de Levene de calidad de varianzas F Sig. t gl Prueba de muestras independientes Sig. (bilateral) prueba t para la igualdad de medias Diferencia de medias - Hay que tener en cuenta la Psicología y no sólo la Física - En Seguridad pequeños avances suponen muchas consecuencias Diferencia de error estándar 95% de intervalo de confianza de la diferencia Inferior Superior 11,597,001 5,417 2353,000,085125,015714,054311,115939 5,435 c 2335,624 d,000 e,085125 a,015663 b,054411 f,115839 f Pedro Valero Mora-valerop@uv.es 84

Contraste de dos medias/grupos dependientes Grupos dependientes La prueba t que vimos anteriormente nos permite comparar dos muestras que han sido recogidas de un modo separado, por eso se llaman independientes Aunque esa es una situación importante, en muchas ocasiones no disponemos de dos grupos diferentes de sujetos o casos y sólo tenemos uno al que le aplicamos dos tratamientos uno tras otro Ejemplos: a) b) c) Qué ventajas tiene esto? - Cada sujeto sirve como su propio control - Necesitamos menos sujetos - No necesitamos un grupo control al que no le hacemos nada o que finjimos que les hacemos algo aunque no les hacemos nada Pedro Valero Mora-valerop@uv.es 85

Contraste de dos medias/grupos dependientes Qué desventajas tiene esto? - Los sujetos pueden cambiar por sí solos y nunca podemos estar seguros de que nuestro tratamiento es la causa del cambio Todas estas cuestiones nos llevarían a los problemas del diseño de buenos experimentos, pero tenéis una asignatura que está dedicada sólo a eso así que no seguiremos aquí - La técnica estadística que veremos aquí es la base de estos estudios y en su forma sencilla es bastante habitual verla por lo que es conveniente aprender acerca de ella Pedro Valero Mora-valerop@uv.es 86

Contraste de dos medias/grupos dependientes La Psicología cura la anorexia? En un estudio realizado por el profesor B. Everitt sobre anorexia se compararon tres grupos de pacientes con anorexia antes y después de aplicarles una terapia. - En este caso veremos si aquellos pacientes a los que se le aplicó terapia cognitiva (una forma de terapia psicológica) aumentaron de peso - En el archivo Anorexia.sav están los datos de pacientes antes y después de la terapia, también hay datos para otros pacientes que participaron como Control, o bien que recibieron Terapia Familiar (otra forma de terapia psicológica) - Los datos los tenéis a la derecha con pesos en kilos, permite tener una primera impresión de si la terapia tuvo efecto Diríais que sí que tuvo efecto? Antes Después 36,2 37,0 38,2 38,5 36,7 36,6 37,2 36,9 36,0 34,4 39,9 46,6 42,7 44,3 34,3 42,0 36,5 33,0 36,2 36,9 38,3 43,5 40,1 42,9 36,6 37,1 34,4 32,6 31,5 40,9 36,2 32,1 37,5 38,4 37,4 36,7 39,5 40,1 37,9 37,8 38,9 37,2 34,4 34,1 36,1 37,2 39,5 45,2 37,5 38,3 35,9 37,6 38,0 38,1 36,4 43,3 39,3 39,0 Pedro Valero Mora-valerop@uv.es 87

Contraste de dos medias/grupos dependientes Prueba de significación de las diferencias Para comparar si hubo diferencias podríamos usar dos métodos que producen el mismo resultado: - Podríamos restar el Peso después de la terapia y el Peso antes para cada paciente y luego calcular la media de las diferencias Si la diferencia media es cero es que la terapia no ha tenido efecto en general aunque sí que haya tenido efecto para algunos pacientes Para probar si la diferencia es significativa podemos utilizar el comando prueba t para una muestra que utilizamos en el tema anterior poniendo como valor de prueba 0 y como variable la diferencia entre las puntuaciones - Podemos utilizar el comando Prueba t para muestras relacionadas que es el que veremos a continuación. Este comando hace los cálculos más fáciles porque no hay que calcular la diferencia entre antes y después como paso previo. Pedro Valero Mora-valerop@uv.es 88

Contraste de dos medias/grupos dependientes SPSS para prueba de significación de las diferencias - En este cuadro de diálogo elegimos las dos variables y las ponemos en la misma fila. Podemos poner varios pares de variables en el mismo análisis como se puede ver. Pedro Valero Mora-valerop@uv.es 89

Contraste de dos medias/grupos dependientes El resultado es el siguiente Estadísticas de muestras emparejadas Media N Desviación estándar Media de error estándar Par 1 TerapiaCognitivaDespues 38,563 29 3,7584,6979 TerapiaCognitivaAntes 37,210 29 2,1805,4049 Par 1 Correlaciones de muestras emparejadas N Correlación Sig. TerapiaCognitivaDespues & 29,492,007 TerapiaCognitivaAntes Par 1 TerapiaCognitivaDespues - TerapiaCognitivaAntes Prueba de muestras emparejadas Diferencias emparejadas 95% de intervalo de confianza de la Desviación Media de error diferencia Media estándar estándar Inferior Superior t gl Sig. (bilateral) 1,3531 3,2888,6107,1021 2,6041 2,216 28,035 - La primera tabla nos indica la media, desviación típica y error típico de la media de las dos columnas - La segunda nos indica la correlación entre las variables. Si esta correlación es cero nos indica que en realidad las dos columnas no están relacionadas, lo cual nos tendría que hacer pensar si no nos hemos equivocado en algo - La parte final nos da el resultado de la prueba de significación de la diferencia Pedro Valero Mora-valerop@uv.es 90

Contraste de dos medias/grupos dependientes Es efectiva la terapia cognitiva? Los resultados de la tabla anterior indican que, como media, las pacientes ganaron 1,35 kilos - Esa diferencia es significativa al 95% de confianza por que la significación es menor de 0,05 - Eso nos permite rechazar la hipótesis nula de no diferencia entre antes y después del tratamiento - Además, la diferencia está en el lado correcto (han ganado peso) Pero realmente la terapia ha sido efectiva? - Una forma de valorar los resultados es mirar los intervalos de confianza Vemos que el valor mínimo es 0,1021, muy cercano a cero Aunque hemos rechazado la hipótesis nula, los resultados no superan el cero de una manera muy clara Cómo podríamos demostrar que la terapia ha sido efectiva? - En los ejercicios veremos que en ese mismo estudio se analizó otro tipo de terapia y además se utilizó un grupo de control (sin terapia) - Haciendo análisis similares podemos tener una visión más completa de las ventajas de la terapia y utilizando métodos más avanzados de análisis podemos comparar los métodos y ver si alguno aventaja a los demás Pedro Valero Mora-valerop@uv.es 91

Contraste de dos varianzas independientes CONTRASTE DE DOS VARIANZAS INDEPENDIENTES Comprobar si las varianzas de dos grupos son similares puede ser importante en dos escenarios - Cuando lo que interesa evaluar es si los dos grupos no difieren en variación aunque puedan ser iguales en la media En ingresos, por ejemplo, si dos profesiones tienen salarios medios iguales pero una de ellas genera valores muy altos o muy bajos podemos preferir la profesión que nos garantiza menores diferencias - Cuando la igualdad de varianzas es un pre-requisito para análisis posteriores Hay varias pruebas de este tipo: - La razón de varianzas divide las varianzas de dos grupos y prueba si el resultado es 1 - El test de Levene es como una prueba t sobre las diferencias respecto de la media para cada grupo - Etc. Pedro Valero Mora-valerop@uv.es 92

Contraste de dos varianzas independientes Estos métodos son complejos: Moore, un autor famoso en la enseñanza de la estadística, por ejemplo, no recomienda a los usuarios poco avanzados usar estas pruebas - En la mayoría de los libros de texto se recomienda simplemente evaluar gráficamente las diferencias en varianzas Pedro Valero Mora-valerop@uv.es 93

ANOVAs Unifactoriales entre e intrasujetos ANOVAS UNIFACTORIALES ENTRE E INTRASUJETOS Los métodos anteriores nos permitían comparar dos medias El Análisis de Varianza (en inglés Analysis of Variance, abreviado a ANOVA) es una técnica que permite comparar más de dos medias simultáneamente Esta es una técnica más complicada pero también muy usada y muy importante Tenemos dos versiones como en la comparación de dos medias: - Entre sujetos (grupos no relacionados) - Intra sujetos (grupos relacionados) Veremos los dos casos por separado Pedro Valero Mora-valerop@uv.es 94

ANOVAs Unifactoriales entre e intrasujetos/en busca de la poción mágica En busca de la poción mágica El ser humano ha intentado desde hace mucho tiempo encontrar sustancias que mejoren su funcionamiento: La cafeína, en sus diferentes formas, es posiblemente una de las que ha tenido más éxito. - Ahora bien, produce algún beneficio tomar cafeína? y sobre qué? El funcionamiento mental tiene muchos aspectos a tener en cuenta, aprendizaje (verbal, motor, perceptual,...) o rendimiento (también verbal, motor o perceptual,...) La cafeína puede ser beneficiosa para algunos aspectos y perjudicial para otros, o neutro - En este caso estudiaremos el efecto de la cafeína sobre el número de golpes que se puede dar con los dedos durante un minuto Queréis probarlo? Cuántos golpes sois capaces de dar en un minuto? Pedro Valero Mora-valerop@uv.es 95

ANOVAs Unifactoriales entre e intrasujetos/en busca de la poción mágica En los datos que tenéis a la izquierda están los resultados de un experimento en el que se dieron a tres grupos de 10 sujetos diferentes dosis de cafeína y luego se les midió en el número de golpes que dieron durante un minuto - El análisis de estos datos implica comparar las medias de número de golpes entre las tres dosis (0, 100 y 200 mgs de cafeína) La hipótesis nula sería que las medias son iguales, lo que significaría que no hay diferencias en el número medio de golpes con diferentes niveles de cafeína - La hipótesis alternativa sería que rechazamos que las medias sean iguales Esta comparación es un tanto complicada por lo que veremos una explicación gráfica para ver en qué consiste Dosis Golpes 0 242 0 245 0 244 0 248 0 247 0 248 0 242 0 244 0 246 0 242 100 248 100 246 100 245 100 247 100 248 100 250 100 247 100 246 100 243 100 244 200 246 200 248 200 250 200 252 200 248 200 250 200 246 200 248 200 245 200 250 Pedro Valero Mora-valerop@uv.es 96

ANOVAs Unifactoriales entre e intrasujetos/la comparación de las medias La comparación de las medias Supongamos que hacemos el experimento de la cafeína y obtenemos los siguientes resultados (los datos son simulados) varpequeña Informe Desviación Dosis Media N estándar 1,00 230,0021 10 1,52481 2,00 240,0021 10 1,52481 3,00 250,0021 10 1,52481 Total 240,0021 30 8,43387 varpequeña 255,00 250,00 245,00 240,00 235,00 - varpequeña sería el número de golpes por minuto 225,00 Con la dosis 1, el número medio de 1,00 2,00 3,00 Dosis golpes sería 230, con la dosis 2, 240, y con la 3, 250. Gráficamente también vemos que hay diferencia en el número de golpes según las dosis 230,00 Pedro Valero Mora-valerop@uv.es 97

ANOVAs Unifactoriales entre e intrasujetos/la comparación de las medias Supongamos que habiendo hecho el experimento de la cafeína hubiéramos obtenido los siguientes resultados 300,00 Informe vargrande Dosis Media N Desviación estándar 1,00 230,0429 10 30,49614 2,00 240,0429 10 30,49614 3,00 250,0429 10 30,49614 Total 240,0429 30 30,57518 vargrande 270,00 240,00 - Las medias son prácticamente iguales y sin embargo mirando el gráfico tenemos la impresión de que en este caso no hay casi diferencias en el efecto 210,00 180,00 de las dosis, por qué ha ocurrido esto? La diferencia está en la variación dentro 1,00 2,00 Dosis 3,00 de los grupos, la desviación típica es más grande y como consecuencia el error típico de las medias también es más grande. Eso hace que la diferencia entre las medias no destaque lo suficiente para apreciarse En conclusión, para comparar las medias hay que tener en cuenta también la variabilidad de las puntuaciones alrededor de las medias de cada grupo. Veremos que el procedimiento del análisis de varianza hace exactamente esto Pedro Valero Mora-valerop@uv.es 98

ANOVAs Unifactoriales entre e intrasujetos/la comparación de las medias La tabla de Análisis de Varianza El comando que usaremos para hacer Análisis de Varianza está en Analizar>Comparar medias>anova de un factor En el cuadro de diálogo elegimos la variable que queremos analizar (en este caso tenemos vargrande y varpequeña) y la ponemos como dependiente El factor es la variable de grupos (en este caso Dosis). Pedro Valero Mora-valerop@uv.es 99

ANOVAs Unifactoriales entre e intrasujetos/la comparación de las medias - Si repetimos el análisis para la variable con varianza pequeña obtendríamos lo siguiente ANOVA varpequeña Suma de cuadrados gl Media cuadrática F Sig. Entre grupos 2000,000 2 1000,000 430,101,000 Dentro de grupos 62,776 27 2,325 Total 2062,776 29 - El resultado con var grande está en la tabla de abajo ANOVA vargrande Suma de cuadrados gl Media cuadrática F Sig. Entre grupos 2000,000 2 1000,000 1,075,355 Dentro de grupos 25110,400 27 930,015 Total 27110,400 29 - Vemos que en el primero caso las diferencias son significativas (el último valor del análisis) mientras que en el segundo no Vamos a examinar los resultados que salen en la tabla para ver como llegamos a la significación Pedro Valero Mora-valerop@uv.es 100

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Sumas cuadráticas En el apartado anterior hemos visto que necesitamos mirar dos cosas: - la variación entre las medias de los grupos y - la variación dentro de los grupos Esa variaciones se calculan mediante las sumas cuadráticas entre y dentro - A continuación veremos como se pueden calcular las sumas cuadráticas en estos ejemplos sencillos aunque en la práctica haremos los cálculos por ordenador Pedro Valero Mora-valerop@uv.es 101

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Suma cuadrática dentro de los grupos Hemos visto en el apartado anterior que necesitamos valorar la variación alrededor de cada media. En fórmula k n j SCD = x ij x j 2 j i - En donde: k=número de grupos (en el ejemplo 3) n j = número de casos por grupo (en el ejemplo eran 10 por grupo pero podría haber más en un grupo que en otros) x j =la media para cada grupo (calculada como siempre) =cada una de las puntuaciones por grupo menos la media del grupo al cuadrado xij xj 2 - Esta fórmula parece un poco complicada pero si la miramos por partes vemos que esta parte es igual a la fórmula de la varianza pero sin dividir por el número de casos para cada grupo (esto sería para el grupo 1) n 1 SCD 1 = x i1 x 1 2 i Pedro Valero Mora-valerop@uv.es 102

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Suma cuadrática entre grupos Para calcular la suma cuadrática entre grupos podemos partir de la siguiente fórmula SCT = SCE + SCD - Es decir la Suma de Cuadrados Total es igual a la Suma de Cuadrados Entre más la Suma de Cuadrados Dentro - Pero, qué es la suma de cuadrados total? N SCT = x i x 2 i No es más que la diferencia entre cada puntuación y la media total (lo mismo que en la fórmula de la varianza pero sin dividir por el número de casos - Ahora se trata de hacer una resta: SCT-SCD=SCE Pedro Valero Mora-valerop@uv.es 103

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas En la tabla que veíamos anteriormente: ANOVA vargrande Suma de cuadrados gl Media cuadrática F Sig. Entre grupos 2000,000 2 1000,000 1,075,355 Dentro de grupos 25110,400 27 930,015 Total 27110,400 29 - SCT=27110,4 y SCD=25110,4, luego SCE=27110,4-25110,4=2000 Pedro Valero Mora-valerop@uv.es 104

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas La comparación de las sumas cuadráticas - En el apartado anterior hemos calculado las SCD y las SCE - Si miramos, veremos que las SCD son mucho más grandes que las SCE Eso es inevitable, porque para el cálculo de la SCD usamos muchos más valores (uno por cada caso que evaluamos) que para las SCE (uno por cada grupo) Por eso, hacer la comparación en términos de sumas de cuadrados no tiene sentido y la comparación correcta implica calcular MEDIAS CUADRÁTICAS (también llamadas varianzas), que se obtienen dividiendo por el número de elementos que se han utilizado en cada caso Pedro Valero Mora-valerop@uv.es 105

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Medias cuadráticas Repitiendo la tabla anterior ANOVA vargrande Suma de cuadrados gl Media cuadrática F Sig. Entre grupos 2000,000 2 1000,000 1,075,355 Dentro de grupos 25110,400 27 930,015 Total 27110,400 29 Al lado de la suma de cuadrados aparece una columna que se llama gl (grados de libertad) Esa columna está relacionado con el número de valores que se han utilizado para hacer el cálculo de la suma de cuadrados - El número de grados de libertad de la SCE= número de grupos menos 1= (k-1)= 3-1=2 - El número de grados de libertad de SCD= número total de casos menos el número de grupos (n-k)=30-3=27 - El número de grados de libertad de SCT= número total de casos menos 1 (30-1=29) - Por último observar que glt=gle+gld (29=27+2) Para calcular las medias cuadráticas dividimos las SC por los gl - MCE=2000/2=1000 - MCD=25110,4/27=930,015 Pedro Valero Mora-valerop@uv.es 106

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Prueba F La penúltima parte de las tablas tiene como título F - F nos permite decir si la variación entre grupos comparada con la variación dentro de grupos es grande o pequeña dividiendo una por la otra. Por ejemplo para el caso en que la varianza dentro de los grupos es grande: Entre F ----------------- 1000 = = -------------------- = 1075 Dentro 930 015 Vemos que el numerador y el denominador son casi iguales por lo que el cociente está muy cerca de 1, lo que lleva a que el resultado no sea significativo. Valores de F cercanos a 1 no serán significativos En cambio, para el caso en que la varianza dentro de los grupos es pequeña: Entre 1000 F = ----------------- = -------------- = 430 101 Dentro 2 325 - Valorar si un resultado es significativo o no debe hacerse utilizando los grados de libertad del numerador y el denominador usando la distribución de probabilidad F. En la práctica, no obstante, dejamos esa comprobación al ordenador y simplemente miramos la significación. Pedro Valero Mora-valerop@uv.es 107

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas El nivel de significación - Como hacemos habitualmente tenemos que mirar si la significación es mayor que 0,05 - Si es mayor las diferencias entre los grupos no son significativas y el análisis termina ahí. - Si las diferencias entre grupos son significativas entonces tenemos que investigar entre qué grupos se dan esas diferencias mediante pruebas a posteriori Nota: SPSS no pone las medias por grupos en el ANOVA si no se lo pides, esto se hace en Opciones>Descriptivos Pedro Valero Mora-valerop@uv.es 108

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Y el efecto de la cafeína? Los resultados de verdad para la prueba de la cafeína se muestran a continuación Descriptivos Golpes 95% del intervalo de confianza para Desviación la media N Media estándar Error estándar Límite inferior Límite superior Mínimo Máximo.00 10 244.8000 2.39444.75719 243.0871 246.5129 242.00 248.00 100.00 10 246.4000 2.06559.65320 244.9224 247.8776 243.00 250.00 200.00 10 248.3000 2.21359.70000 246.7165 249.8835 245.00 252.00 Total 30 246.5000 2.59642.47404 245.5305 247.4695 242.00 252.00 ANOVA Golpes Suma de cuadrados gl Media cuadrática F Sig. Entre grupos 61,400 2 30,700 6,181,006 Dentro de grupos 134,100 27 4,967 Total 195,500 29 - Tiene efecto tomar cafeína sobre la velocidad de dar golpes? La respuesta es que sí, ahora bien, sólo con este resultado no tenemos bastante ya que nos faltaría saber entre qué niveles de cafeína están las diferencias Pedro Valero Mora-valerop@uv.es 109

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Pruebas post hoc (o a posteriori) El análisis anterior nos puede dejar un poco insatisfechos - Aunque hemos encontrado diferencias en velocidad según la dosis, nos podemos preguntar exactamente en qué consisten Cualquier dosis de cafeína produce efecto? Hay que tomar dosis altas para que haga efecto? Si tomas un poco no hace efecto? - En definitiva, saber que hay diferencias no es suficiente si no sabes entre qué grupos exactamente están las diferencias Pedro Valero Mora-valerop@uv.es 110

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Para responder a estas preguntas se utilizan las pruebas a posteriori. Estas pruebas se llaman así por que se hacen después de haber calculado el análisis de varianza y haber encontrado resultados significativos (si los resultados no son significativos no vale mirar las pruebas post hoc) - El problema con las pruebas post hoc es que hay muchas disponibles. - Nosotros sólo veremos Bonferroni. Esta prueba es similar a hacer una prueba t para diferencia entre dos medias pero corrigiendo el estadístico de contraste porque vamos a hacer muchas comparaciones - Hacer muchas comparaciones tiene el inconveniente de que tarde o temprano, aunque algo tenga una probabilidad baja, si lo intentas lo suficiente, ocurrirá. Para corregirlo, Bonferroni corrige el nivel de significación haciéndolo más estricto Pedro Valero Mora-valerop@uv.es 111

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas - Bonferroni es bastante conservador: si el resultado es significativo podemos confiar en él Pedro Valero Mora-valerop@uv.es 112

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Para nuestro ejemplo, obtenemos lo siguiente: Comparaciones múltiples Variable dependiente: Golpes Bonferroni Diferencia de 95% de intervalo de confianza (I) Dosis (J) Dosis medias (I-J) Error estándar Sig. Límite inferior Límite superior,00 100,00-1,60000,99666,360-4,1439,9439 200,00-3,50000 *,99666,005-6,0439 -,9561 100,00,00 1,60000,99666,360 -,9439 4,1439 200,00-1,90000,99666,202-4,4439,6439 200,00,00 3,50000 *,99666,005,9561 6,0439 100,00 1,90000,99666,202 -,6439 4,4439 *. La diferencia de medias es significativa en el nivel 0.05. - La tabla compara cada dosis de cafeína con las otras dos dosis. Por ejemplo, la primera fila compara dosis 0 con dosis 100 y luego con dosis 200. Siguiendo por la fila podemos ver que la diferencia entre 0 y 100 (-1,6) no es significativa (0,360) pero con 200 sí (0,005) De todas las comparaciones, la única significativa es entre 0 y 200 mgs de cafeína que supone una diferencia media de 3,5 golpes más - Conclusión: Esto no sirve pero esto sí Pedro Valero Mora-valerop@uv.es 113

ANOVAs Unifactoriales entre e intrasujetos/sumas cuadráticas Igualdad de varianzas entre los grupos El método de análisis de varianza que he explicado aquí parte de que las varianzas son aproximadamente iguales - El cuadro de diálogo de la derecha corresponde con el botón opciones del análisis de varianza Esto puede evaluarse mirando las desviaciones típicas por grupo - En la tabla de resultados podemos ver que la desviación típica es prácticamente la misma en nuestros tres grupos Un gráfico de cajas comparando los grupos también sirve - Si hubiera diferencias muy grandes (el doble o el triple de desviación típica en un grupo que en los otros) se puede usar la opción Welch en el cuadro de diálogo (no lo veremos) por que es apropiado cuando no hay igualdad de varianzas en los grupos Descriptivos Golpes 95% del intervalo de confianza para Desviación la media N Media estándar Error estándar Límite inferior Límite superior Mínimo Máximo,00 10 244,8000 2,39444,75719 243,0871 246,5129 242,00 248,00 100,00 10 246,4000 2,06559,65320 244,9224 247,8776 243,00 250,00 200,00 10 248,3000 2,21359,70000 246,7165 249,8835 245,00 252,00 Total 30 246,5000 2,59642,47404 245,5305 247,4695 242,00 252,00 Pedro Valero Mora-valerop@uv.es 114

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Análisis de varianza de medidas repetidas La intervención de los psicólogos en caso de catástrofes es un ámbito que está bien establecido - Son conocidas la participación de los psicólogos en el atentado del 11M y hay por ejemplo documentos de autoayuda o manuales disponibles en internet - Escribir uno de esos manuales o llevar a cabo intervenciones presenta el desafío de que hay muy poca gente con experiencia en ese tipo de situaciones (afortunadamente) Los psicólogos intentando ayudar o dando consejos sobre como actuar probablemente no han tenido muchas experiencias similares, y aunque hayan tenido alguna es muy posible que tampoco tengan muchas oportunidades de reflexionar sobre las lecciones aprendidas La investigación académica puede aportar en ocasiones elementos que ayuden a determinar ciertas pautas de actuación para esas situaciones - En este caso, analizaremos unos datos recogidos justo antes de una catástrofe, en este caso un terremoto, y unas semanas después, de los sentimientos de depresión de unos sujetos Los datos no son auténticos pero están fabricados para imitar los resultados de este estudio - Estos datos nos permitirán analizar durante cuánto tiempo esos sentimientos perduran y, por ejemplo, dar recomendaciones acerca de lo que es normal/anormal con respecto a ese sentimiento Pedro Valero Mora-valerop@uv.es 115

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Depresión antes y después de un terremoto En estos datos tenemos cinco medidas de depresión tomadas a 25 sujetos. Las medidas fueron tomadas 2 semanas antes, 1 semana después y luego cada tres semanas Sujeto 2antes 1despues 4despues 7despues 10despues 1 6 10 8 4 6 2 2 4 8 5 6 3 2 4 8 5 6 4 4 5 8 10 7 5 4 7 9 7 12 6 5 7 9 7 7 7 2 9 11 8 8 8 6 9 11 8 8 9 13 10 11 8 9 10 7 3 11 8 11 11 7 12 8 8 11 12 7 10 11 9 11 13 9 10 13 10 11 14 9 11 12 6 12 15 11 11 12 19 7 16 11 12 12 12 19 17 12 12 12 13 14 18 12 12 13 13 15 19 7 12 13 13 15 20 13 10 13 14 15 21 13 14 11 15 16 22 13 14 14 17 16 23 13 14 15 11 18 24 14 14 15 20 14 25 15 17 16 21 19 Pedro Valero Mora-valerop@uv.es 116

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas La hipótesis nula es que la depresión para todos los sujetos sería igual para todas las semanas, la alternativa es que hay variación en los niveles de depresión - Esa sería una primera hipótesis más general. En un segundo momento podríamos querer un estudio más específico para ver si los niveles de depresión aumentaron justo después del terremoto y la evolución (si por ejemplo la depresión disminuyó al mes o así) Vemos que estos datos corresponden a los mismos sujetos medidos varias veces, se trata de un diseño de medidas repetidas Pedro Valero Mora-valerop@uv.es 117

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas La media cuadrática intra sujetos La prueba F incluía una comparación entre la media cuadrática entre-grupos y la media cuadrática dentro-grupos La media cuadrática dentro de grupos (o intragrupos) es una variación que podemos a su vez descomponer en dos partes - La variación que existe dentro de cada sujeto: En nuestro caso, hay gente que reaccionará de una manera más moderada y otra que lo hará de una manera más exagerada con más extremos. - La variación de error: Sería el resto de la variación que no se puede atribuir a los sujetos y que simplemente no sabemos por qué ocurre Pedro Valero Mora-valerop@uv.es 118

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Cuando medimos varias veces a un mismo objeto podemos calcular la variación que se debe al propio sujeto: - En el ejemplo de la depresión, el primer sujeto tuvo las siguientes puntuaciones 6 10 8 4 6 - Si calculamos la media para ese sujeto tenemos que es: 34/5=6,8 - Podemos calcular el error típico (al cuadrado) para las puntuaciones de cada sujeto a partir de las variaciones alrededor de la media 6 6 8 + 10 6 8 + 8 6 8 + 4 6 8 + 6 6 8 = 20 8 Ese valor lo multiplicamos por el número de medidas repetidas para tener la varianza de cada sujeto20 8 5 = 104 Si hacemos eso para todos los sujetos y sumamos tenemos una estimación de la variación de cada sujeto Pedro Valero Mora-valerop@uv.es 119

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Esto daría lo siguiente: Sujeto 2antes 1despues 4despues 7despues 10despues Var suj. 1 6 10 8 4 6 104.00 2 2 4 8 5 6 106.25 3 2 4 8 5 6 102.78 4 4 5 8 10 7 119.44 5 4 7 9 7 12 179.44 6 5 7 9 7 7 40.69 7 2 9 11 8 8 226.25 8 6 9 11 8 8 66.11 9 13 10 11 8 9 75.00 10 7 3 11 8 11 222.78 11 7 12 8 8 11 96.25 12 7 10 11 9 11 60.00 13 9 10 13 10 11 50.00 14 9 11 12 6 12 141.11 15 11 11 12 19 7 386.25 16 11 12 12 12 19 219.44 17 12 12 12 13 14 29.44 18 12 12 13 13 15 47.36 19 7 12 13 13 15 214.03 20 13 10 13 14 15 104.03 21 13 14 11 15 16 110.00 22 13 14 14 17 16 90.00 23 13 14 15 11 18 187.78 24 14 14 15 20 14 187.36 25 15 17 16 21 19 154.03 - En la última columna, si todos los sujetos reaccionaran de la misma manera, el valor que aparecería sería el mismo para todos Si la diferencia en valores fuera mínima, la variación sería pequeña y en cambio si la diferencia es grande, la variación sería grande. Esa variación la llamaremos la Suma Cuadrados Entre Sujetos Pedro Valero Mora-valerop@uv.es 120

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Gráficamente, al final tenemos tres cantidades: - La variación entre tratamientos (en este caso semanas pasadas después del terremoto) Esta es la variación en la media de depresión de todos los sujetos en las distintas semanas y corresponde con la línea verde - La variación dentro de los tratamientos Esta es la variación en depresión de los sujetos en cada semana Esto se puede ver en los puntos azules - La variación de los sujetos Esta es la variación para cada sujeto a lo largo de las semanas Esto se ve para un sujeto en la línea azul. Cada sujeto tendría su propia línea Si las líneas azules fueran paralelas a la línea verde, no habría variabilidad individual, todos los sujetos seguirían el mismo patrón Cuando las líneas son diferentes, entonces hay variabilidad individual, los sujeto se comportan de una manera algo diferente Pedro Valero Mora-valerop@uv.es 121

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Como la variación dentro de los tratamientos incluye la variación propia de los sujetos podemos restarla y calcular una fuente de variación diferente: la variación de error Variación dentro de los tratamientos-variación de los sujetos=variación de error - La variación de error es la que se utiliza como denominador para el análisis de varianza en lugar de la variación dentro de los grupos Entre F = -------------- Error Pedro Valero Mora-valerop@uv.es 122

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Análisis de varianza de medidas repetidas en SPSS Para hacer el cálculo se va a Analizar>Modelo Lineal General>Medidas Repetidas y aparece el siguiente cuadro de diálogo - En el factor intra-sujetos se indica cuántas medidas tenemos de cada sujeto El nombre en este caso es Tiempo pero casi siempre podemos usar ese nombre - En el nombre de la medida lo llamamos Depresión (porque es lo que medimos en este caso) Luego apretamos el botón Añadir arriba y abajo y el botón Definir Pedro Valero Mora-valerop@uv.es 123

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas En el siguiente cuadro de diálogo tenemos que ir moviendo los nombres de las variables sobre las líneas de la derecha - antes2 sobre 1, Depresión - despues1 sobre 2, Depresión - etc. Pedro Valero Mora-valerop@uv.es 124

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas La tabla de análisis de varianza Los resultados para este análisis tienen bastantes cosas pero nosotros nos centraremos en esta tabla - Dentro de esta tabla miraremos la línea que está en negrita (Greenhouse-Geisser). La significación nos indica si hay diferencias entre las medidas (en este caso, si la depresión ha ido cambiando a lo largo de las semanas) Medida: Depresión Pruebas de efectos dentro de sujetos Tipo III de suma de Cuadrático Origen cuadrados gl promedio F Sig. Tiempo Esfericidad asumida 144.768 4 36.192 7.811.000 Greenhouse-Geisser 144.768 3.327 43.516 7.811.000 Huynh-Feldt 144.768 3.926 36.871 7.811.000 Límite inferior 144.768 1.000 144.768 7.811.010 Error(Tiempo) Esfericidad asumida 444.832 96 4.634 Greenhouse-Geisser 444.832 79.843 5.571 Huynh-Feldt 444.832 94.231 4.721 Límite inferior 444.832 24.000 18.535 Pedro Valero Mora-valerop@uv.es 125

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Pruebas de medias Una vez hemos comprobado que hay diferencias entre los diferentes momentos, sería interesante ver entre qué momentos concretos se dan las diferencias Esto se puede examinar usando el botón opciones. En el cuadro de diálogo elegimos Tiempo y seleccionamos comparar los efectos principales. Para el ajuste del intervalo de confianza usamos Bonferroni Pedro Valero Mora-valerop@uv.es 126

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas En nuestro ejemplo tendríamos las medias siguientes Estimaciones Medida: Depresión Intervalo de confianza al 95% Tiempo Media Error estándar Límite inferior Límite superior 1 8.680.828 6.971 10.389 2 10.120.708 8.659 11.581 3 11.360.476 10.378 12.342 4 10.840.955 8.869 12.811 5 11.720.844 9.979 13.461 - Vemos que la depresión aumenta del momento 1 al 2 y luego al 3 y parece que se estabiliza pero no sabemos si las diferencias son significativas Pedro Valero Mora-valerop@uv.es 127

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas La comparación entre las medias produce esto Medida: Depresión Comparaciones por parejas 95% de intervalo de confianza Diferencia de para diferencia b (I) Tiempo (J) Tiempo medias (I-J) Error estándar Sig. b Límite inferior Límite superior 1 2-1.440.500.083-2.986.106 3-2.680 *.535.000-4.332-1.028 4-2.160 *.626.021-4.096 -.224 5-3.040 *.599.000-4.890-1.190 2 1 1.440.500.083 -.106 2.986 3-1.240.481.164-2.725.245 4 -.720.680 1.000-2.820 1.380 5-1.600.577.106-3.384.184 3 1 2.680 *.535.000 1.028 4.332 2 1.240.481.164 -.245 2.725 4.520.666 1.000-1.539 2.579 5 -.360.571 1.000-2.125 1.405 4 1 2.160 *.626.021.224 4.096 2.720.680 1.000-1.380 2.820 3 -.520.666 1.000-2.579 1.539 5 -.880.790 1.000-3.322 1.562 5 1 3.040 *.599.000 1.190 4.890 2 1.600.577.106 -.184 3.384 3.360.571 1.000-1.405 2.125 4.880.790 1.000-1.562 3.322 Se basa en medias marginales estimadas *. La diferencia de medias es significativa en el nivel.05. b. Ajuste para varias comparaciones: Bonferroni. - Vemos que las diferencias son sobre todo entre el tiempo 1 y los demás. La depresión se mantiene estable en 2, 3, 4 y 5. No obstante, la diferencia entre el tiempo 1 y el 2 no es significativa. Podríamos interpretar que lo peor empieza a partir del momento 3 Pedro Valero Mora-valerop@uv.es 128

ANOVAs Unifactoriales entre e intrasujetos/análisis de varianza de medidas repetidas Pedro Valero Mora-valerop@uv.es 129