INFERENCIA PARAMÉTRICA: RELACIÓN ENTRE VARIABLES CUALITATIVAS Y CUANTITATIVAS

Tamaño: px
Comenzar la demostración a partir de la página:

Download "INFERENCIA PARAMÉTRICA: RELACIÓN ENTRE VARIABLES CUALITATIVAS Y CUANTITATIVAS"

Transcripción

1 INFERENCIA PARAMÉTRICA: RELACIÓN ENTRE VARIABLES CUALITATIVAS Y CUANTITATIVAS Autor: Clara Laguna 8.1 INTRODUCCIÓN Cuando hablamos de la estimación de una media (intervalos de confianza) en el tema 5, ya introdujimos la distribución t de Student. En este capítulo vamos a volver a tratar diferentes situaciones sobre esta distribución. Destacar que todos los test que vamos a ver a continuación para comparar medias son test paramétricos que cumplen unos requisitos de aplicación. La distribución t de Student 1 es muy parecida a la distribución normal, pero se aplica cuando no se conoce la desviación estándar poblacional y el estimador utilizado se calcula en la propia muestra (s, s ). Como casi nunca se dispone de σ o σ, el uso de la t de Student es muy frecuente. A medida que la muestra es mayor (n>100), es casi equivalente utilizar la t de Student o la distribución normal (figura 8.1). Para un número alto de grados de libertad, se puede aproximar a la N(0,1). Figura 8.1 Como la distribución t de Student tiene en cuenta el tamaño de la muestra, hay una t distinta para cada tamaño muestral, es decir, para cada número de grados de libertad. 1 La distribución t-student se construye como un cociente entre una normal y la raíz de una ji cuadrado independientes. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 1-3

2 Los grados de libertad en una variable cuantitativa son: En una muestra: g.l.= (n-1) Cuando hay dos muestras: g.l.= (n-1) + (m-1)= (n+m-) = N-, siendo N la suma de los individuos de los dos grupos. 8. TEST DE LA T DE STUDENT PARA COMPARAR DOS MUESTRAS INDEPENDIENTES Aunque podemos utilizar la t de Student para contrastar la media de una muestra y la media poblacional de la que ha sido extraída (problema más simple referido a una sola muestra), el uso más habitual de esta distribución es el de comparar las medias de una variable cuantitativa continua entre dos grupos independientes. En este tipo de problemas habrá siempre dos variables: Una cuantitativa (variable dependiente que se compara) Otra cualitativa dicotómica (variable independiente) Se trata de comprobar si la variable cuantitativa depende de la variable dicotómica, es decir, calcularemos las medias de la variable continua para los dos grupos de la variable cualitativa y crearemos el contraste para determinar si existen diferencias significativas o no entre las medias de dos muestras independientes. Para entender de manera más sencilla el test vamos a desarrollar el siguiente ejemplo. Ejemplo 8.1: Supongamos que se desea comparar el efecto de dos dietas. Es decir queremos saber si el cambio de peso (kg. adelgazados) de distintas personas obesas, que han seguido o bien la dieta 1 o bien la dieta, depende de la dieta seguida por cada uno. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas - 3

3 Figura 8. Si nos fijamos en los datos de la figura 8., tenemos dos variables: Variable cuantitativa: pérdida o reducción de peso Variable cualitativa dicotómica: la dieta (dos grupos: dieta 1 y dieta ) Nuestro objetivo es comparar la media de los kilogramos adelgazados por parte de los sujetos que siguieron la dieta 1 con la media de los kilogramos adelgazados por los que siguieron la dieta. El planteamiento es el siguiente: se toma como hipótesis nula que la media de kilogramos adelgazados con ambas dietas es la misma. Así, si denominamos µ a la media de kilogramos adelgazados en cada grupo tendremos: H 0: μ dieta1 = μ dieta (Ambas dietas tienen igual efecto) H 1: μ dieta1 μ dieta (Ambas dietas tienen distinto efecto) A partir de estas hipótesis hay que comprobar si la diferencia que existe entre las dos medias es debida a que realmente es más efectiva una dieta que la otra o bien, si las diferencias observadas se podrían explicar simplemente por azar. Para resolver el problema aplicamos la expresión de la t de Student para comparar dos medias: tnm x1 x EEDM 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 3-3

4 donde EEDM es el error estándar de la diferencia de medias. Podéis ver que la t de Student se obtiene dividiendo el efecto (diferencia en el peso adelgazado en uno y otro grupo) entre un error (en este caso, error estándar de la diferencia de medias) que expresa la variabilidad aleatoria esperada. Como en la mayoría de los test estadísticos, todo el secreto está en dividir la diferencia observada por un término de error que estima la variabilidad biológica aleatoria. Si la diferencia observada es mucho mayor que la variabilidad biológica aleatoria esperada, entonces el conciente t tendrá un valor grande y diremos que hay diferencias significativas. Si la diferencia observada es pequeña en relación a la variabilidad biológica esperada, entonces la t tendrá un valor pequeño y no podremos decir que existen diferencias significativas. Volviendo a nuestro ejemplo, la t=0,30. t x x EEDM Como hay 30 individuos en total y se comparan dos grupos, nuestra t tiene 8 grados de libertad (g.l. = 30- = 8). El valor de t no es significativo, ya que el valor tabulado para un error α=0,05 es superior t8,α/=0.05=.0484 al encontrado (figura 8.3). Luego no se rechaza la hipótesis nula y se concluye que no hay diferencias significativas entre el peso medio perdido con las dos dietas. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 4-3

5 Figura 8.3 Distribución t de Student Como regla general, si el valor de t que hemos encontrado es superior al tabulado se rechaza la hipótesis nula y se podrá afirmar que hay diferencias significativas entre ambas medias. En este ejemplo la t vale 0,3, es decir, el efecto observado (diferencia entre las dos dietas) es sólo el 30% de la variabilidad biológica esperada. Casi sin necesidad de mirar las tablas ya se puede decir que la diferencia entre las dietas es insignificante, mucho menor que lo esperado por el azar. Sólo nos falta saber qué es eso del error estándar de la diferencia de medias (EEDM). De dónde ha salido la cantidad 3,4 que aparece en el denominador y que estima la variabilidad aleatoria esperada en este ejemplo? La varianza de la pérdida de peso en el grupo de los que han seguido la dieta 1 es de 85,8 y en los que han seguido la dieta es de 71,1. Ahora tenemos que usar una varianza común llamada varianza ponderada s p. Para calcularla se hace una media ponderada entre las dos varianzas. Se pondera cada varianza por los grados de libertad (n i-1) de su grupo: s p ( n 1) s1 ( m 1) s ( n 1) ( m 1) (19 1)85.8 (111) (19 1) (111) 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 5-3

6 La desviación estándar ponderada (s p) será: s p s p Una vez que sabemos cuál es la desviación estándar ponderada, ya podemos calcular el EEDM, mediante la siguiente expresión: EEDM s p 1 n 1 m Condiciones de aplicación del test t para dos medias Antes de aplicar el test que acabamos de ver, debemos comprobar si se cumplen las condiciones de aplicación. Las condiciones de aplicación del test t para comparar dos medias son: A) NORMALIDAD La variable cuantitativa o dependiente ha de seguir aproximadamente una distribución normal dentro de cada grupo. Habitualmente se suele emplear el siguiente criterio: cuando tanto n como m son mayores o iguales a 30 se puede presumir que la aproximación a la normal será buena. Se debe comprobar por tanto la normalidad de la variable dependiente si la muestra no es muy grande. Para comprobar si la variable cuantitativa se aproxima a la normal hay que verificar que en cada grupo se cumplen los 3 requisitos siguientes: Comprobar que el máximo y el mínimo queden dentro del intervalo definido por: Media + 3 desviaciones estándar Que la asimetría (en valor absoluto) sea menor que dos veces su error estándar: Asimetría < errores estándar de asimetría Que la curtosis (en valor absoluto) sea menor que dos veces su error estándar: Curtosis < errores estándar de curtosis Si se cumplen estos tres requisitos, podemos asumir que la distribución es normal. Si no se cumple la condición de normalidad, puede intentarse que mejore la aproximación a la normalidad mediante una transformación de los datos de la variable cuantitativa en sus logaritmos. Recordad el teorema central del límite estudiado en el tema Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 6-3

7 En la práctica, habitualmente, realizaremos un test de normalidad. Existen diversos test para comprobar si los valores de una variable siguen o no la distribución normal. Cuando resultan significativos (p<0,05) se rechaza la hipótesis de normalidad, tendremos evidencia de que los datos no siguen una distribución normal. Los test de normalidad más utilizados y que podemos obtener con SPSS son el test de Kolmogorov-Smirnov o el test de Shapiro-Wilks (utilizado si n 50). Si finalmente la variable no se aproxima a la normalidad, se deben aplicar pruebas no paramétricas 3 : U de Mann-Whitney (datos independientes) o el test de Wilcoxon (datos emparejados). B) HOMOGENEIDAD DE VARIANZAS (HOMOCEDASTICIDAD) Además de seguir una distribución normal hay que comprobar que las varianzas de ambos grupos sean iguales, es decir, homogéneas. Mediante la prueba F de Snedecor para la homogeneidad de varianzas podremos comprobar que no hay diferencias significativas entre las varianzas. Para ello calculamos las varianzas de cada grupo y obtenemos el cociente: F varianza varianza mayor menor A continuación se calculan los grados de libertad del numerador y denominador que son (n-1) y (m-1) respectivamente, y se busca en las tablas de la F el valor tabulado para p=0,05. Cuanto más diferentes sean las varianzas, mayor valor tendrá F y superará el valor crítico de las tablas. Si la F calculada es superior al valor tabulado, pensaremos que las varianzas no son homogéneas entre sí. En nuestro ejemplo: F= 85.8 / 71.1=1. (con 18 y 10 grados de libertad) En la tabla de la F de Snedecor con 18 y 10 g.l., el valor tabulado para ser significativo al 5% está en torno a.8, superior al valor encontrado, luego puede asumirse que no hay diferencias significativas entre las varianzas. En la práctica con SPSS utilizaremos el test de Levene para comprobar si las varianzas son homogéneas. Su hipótesis nula es que las varianzas son iguales. Si el valor p correspondiente al test de Levene es inferior a 0,05, asumiremos que las varianzas son significativamente distintas. Cuando las varianzas sean distintas, se puede emplear el t-test pero hay que hacer en él una modificación que afecta al error estándar y a los grados de libertad. Esta t modificada se conoce como aproximación de Welch o test de Welch y nos aparecerá cuando realizamos una t de Student en SPSS. 8.. Intervalo de confianza para la diferencia de medias 3 Veremos las pruebas no paramétricas en el tema Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 7-3

8 Con lo visto hasta ahora hemos resuelto el problema de la comparación de dos grupos independientes, pero se ha llegado a una conclusión algo limitada: no existen diferencias significativas. Falta algo imprescindible: estimar la magnitud de la diferencia entre ambos grupos. Vimos que esto se resolvía calculando unos límites de confianza a la diferencia de medias. La expresión es parecida al intervalo de confianza para una media pero ahora se utiliza una diferencia de medias y se usa el error estándar de la diferencia de medias: IC X X t EEDM 1 1 ( 1 ) ; N Volviendo al ejemplo 8.1, calculamos el intervalo de confianza al 95% y obtenemos: IC 0,95 ( X1 X ) t8,0. 05 EEDM (18,58 17,55),0483,4 1,034 6,96 5,9 a 8,0 Interpretación: La diferencia de kilogramos adelgazados por parte de los que siguen la dieta 1 fue de un promedio de 1,03 Kg. más que en el grupo que siguió la dieta. Con una confianza del 95% podemos decir que este intervalo sería uno de los que contienen la diferencia poblacional de Kg. adelgazados, si repitiésemos la estimación 100 veces. No hay diferencias significativas 4, los que siguen la dieta 1 pueden adelgazar 8 Kg. más o 6 Kg. menos que los que siguen la dieta Comparación de dos medias (grupos independientes) con SPSS Vamos a desarrollar nuestro ejemplo de las dietas con SPSS. Como hemos visto, antes de hacer el test empezamos por comprobar la normalidad en cada grupo. Seleccionamos Analizar / Estadísticos descriptivos / Explorar, dentro del menú Explorar en la opción Gráficos marcar Gráficos con prueba de normalidad. red_peso dieta dieta 1 dieta Pruebas de normalidad Kolmogorov-Smirnov a Estadístico gl Sig. Estadístico gl Sig.,166 19,178,957 19,507,168 11,00*,950 11,640 *. Este es un límite inf erior de la signif icación v erdadera. a. Corrección de la signif icación de Lillief ors Shapiro-Wilk Los tests de normalidad dan un valor de p no significativo (p>0,05) en ambos grupos (en este caso, por el tamaño muestral que tenemos en cada grupo es más correcto 4 Recordad la relación entre contrastes de hipótesis e intervalos de confianza: El valor p será significativo, sólo cuando el I.C. no incluya el Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 8-3

9 utilizar el test de Shapiro-Wilks). No hay evidencias para rechazar la hipótesis nula de normalidad de la variable reducción del peso en ambas muestras. La prueba de Levene para la igualdad de varianzas la obtenemos al hacer el t test. Para comparar las medias de una variable cuantitativa continua entre dos grupos independientes, seleccionamos Analizar / Comparar medias / Prueba T para muestras independientes El procedimiento calculará las medias de la variable continua para los dos grupos seleccionados de la variable cualitativa y creará el contraste para determinar si existen diferencias significativas o no entre las medias de dos muestras independientes. En la primera tabla obtenemos un resumen de estadísticos descriptivos de los dos grupos. Estadísticos de grupo red_pes o dieta dieta 1 dieta N Desviación Error típ. de Media típ. la media 19 18, 58 9, 64, , 55 8, 430, Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 9-3

10 En el segundo cuadro de resultados nos aparece la prueba t para muestras independientes: Significación estadística para varianzas Iguales (p>0,05) Como el 0 está incluido en el I.C., NO rechazamos la H0 red_peso Se han asumido v arianzas iguales No se han asumido v arianzas iguales Prueba de Levene para la igualdad de v arianzas F Sig. Prueba de muestras independientes t gl Sig. (bilateral) Prueba T para la igualdad de medias Dif erencia de medias 95% Interv alo de confianza para la Error típ. de dif erencia la diferencia Inferior Superior,111,74,304 8,763 1,033 3,400-5,93 7,999,31,704,758 1,033 3,313-5,85 7,89 Test de Levene de Igualdad de Varianzas (Si p>0.05, varianzas iguales) Valor t para varianzas distintas (test de Welch) Diferencia de medias entre los dos grupos. Numerador del t test EEDM Denominador del t test Interpretación: El test de Levene para analizar la igualdad de varianzas entre los dos grupos, concluye que no existen diferencias significativas entre la variabilidad de dichos grupos (p=0,74 > 0,05). De las dos soluciones para el test de medias que nos proporciona el programa, nos quedamos con la primera: t=0,304, significación p=0,763 > 0,05. Luego no se rechaza la hipótesis nula y por tanto no hay diferencias significativas entre el peso perdido con las dos dietas. La interpretación del intervalo de confianza al 95% para la diferencia de las medias la hemos visto anteriormente. Este último aspecto de la salida de SPSS es el que ofrece la información más rica y útil para presentar los resultados de una investigación. Muchas veces se puede presentar de modo gráfico, mediante barras de error para mostrar los límites de confianza de la diferencia entre la media de los dos grupos. Pero además la presentación de un I.C. informa de en qué sentido va la diferencia, cuál es su magnitud y también indirectamente nos está revelando si el estudio tiene suficiente potencia o no. Cuanto más ancho sea el intervalo, menos potencia tendrá. 8.3 TEST DE LA T DE STUDENT PARA DATOS EMPAREJADOS En el apartado anterior hemos visto cómo comparar las medias de dos grupos independientes. Ahora vamos a estudiar la situación en la que cada observación de un grupo está relacionada con una observación del otro. Se trata de un diseño emparejado. Dos muestras son relacionadas cuando: 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 10-3

11 Se realizan mediciones repetidas en un mismo individuo. Se comparan entre sí, de dos en dos, parejas naturales de individuos, por ej. gemelos (emparejamiento natural). Se busca un control para cada paciente de tal modo que tenga las mismas características de edad, sexo,...que el paciente. En epidemiología son muy frecuentes los estudios de casos y controles emparejados, que requieren este tipo de análisis. No es lo mismo comparar los datos entre dos individuos distintos (muestras independientes) que los datos del mismo individuo en distintos momentos. Cuando la variabilidad biológica que hay que tener en cuenta no es entre individuos sino dentro de un mismo individuo observado en distintas ocasiones, el tratamiento estadístico es distinto porque entonces la variabilidad aleatoria es menor. En la práctica, distinguiremos este tipo de datos emparejados porque en la base de datos habrá una columna para cada medición (antes-después) o una columna para cada una de las dos observaciones que forman la pareja (antes/después). Ejemplo 8.: Se realiza un estudio sobre la forma física de un grupo de 30 individuos, antes y después de un programa de entrenamiento deportivo. Nos interesa saber si cada individuo durante unas sesiones de entrenamiento ha mejorado su forma física. Para ello, evaluamos la frecuencia cardiaca de cada sujeto antes y después del programa de entrenamiento. ID FREC_PRE FREC_POS DIF MEDIA = -9.1 DESV. EST. = 11.1 Los datos que aparecen en la tabla anterior son: ID: Nº de orden del individuo dentro de la muestra FREC_PRE: frecuencia cardiaca ANTES del entrenamiento FREC_POS: frecuencia cardiaca DESPUÉS del entrenamiento 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 11-3

12 La variable DIF (diferencias entre la frecuencia cardiaca antes y después del entrenamiento para cada individuo) la hemos calculado para saber si tras el entrenamiento se ha reducido la frecuencia cardiaca media. El contraste que vamos a realizar es el siguiente: H 0: μ antes = μ después (media (DIF) = 0) H 1: μ antes μ después (media (DIF) 0) Al igual que en el caso de la t de Student para grupos independientes, debemos comprobar si la variable DIF sigue una distribución normal. Utilizando la opción que los tests de normalidad que nos ofrece SPSS, vemos que ambos tests dan un valor de p no significativo (p>0,05) (como n<50 es más correcto utilizar el test de Shapiro-Wilks). No hay evidencias para rechazar la hipótesis nula de normalidad. Para resolver el problema aplicamos la expresión de la t de Student para muestras relacionadas: t N 1 media( DIF) EEMDIF donde EEMDIF es el error estándar de la media de la diferencia. En nuestro ejemplo, utilizando el valor de la desviación estándar (11,1) y sabiendo que la muestra consta de 30 individuos, tenemos que: S DIF DIF N EEMDIF S DIF N En una t de Student para datos emparejados los grados de libertad son N-1, siendo siempre N el total de individuos estudiados. Grados de libertad: (N-1) = (30-1) =9 9,1,0 Calculamos la t para datos emparejados: t 4, Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 1-3

13 Si comparamos el valor encontrado para t con el valor tabulado de la t de Student (figura 8.3), tenemos que un valor de 4,5 para 9 grados de libertad (t 9; 0.05 =.045) es significativo al 5%. Por tanto, puede concluirse que ha existido un descenso significativo de la frecuencia cardiaca después del período de entrenamiento. Como siempre, acompañamos el test con el intervalo de confianza para la diferencia de medias: IC IC 1 95% media( DIF) t /, N ( 13., 5.0) EEMDIF La interpretación sería que existen evidencias para afirmar que el programa de entrenamiento se ha acompañado de un descenso en la frecuencia cardiaca. El descenso medio estimado fue de 9 latidos por minuto después del programa de entrenamiento. Con una confianza del 95%, este descenso estará entre 5 y 13 puntos Test para medidas relacionadas con SPSS En este caso, seleccionamos Analizar / Comparar medias / Prueba T para muestras relacionadas. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 13-3

14 Obtenemos los siguientes resultados: En la primera tabla obtenemos un resumen de estadísticos descriptivos de las dos variables relacionadas. Estadísticos de muestras relacionadas Par 1 FREC_PRE FREC_POST Desviación Error típ. de Media N típ. la media 79, , , , , 9518, 3647 La segunda tabla contiene el coeficiente de correlación de Pearson entre ambas variables junto con la significación que le corresponde bajo la hipótesis de independencia (como vimos en Regresión Lineal). Correlaciones de muestras relacionadas Par 1 FREC_PRE y FREC_POST N Correlación Sig. 30,88,000 En la última tabla es donde aparecen los resultados interesantes del t test. Estos resultados se basan en una variable que crea internamente SPSS y que equivale a la que hemos creado nosotros y hemos llamado DIF. Prueba de muestras relacionadas Par 1 FREC_PRE - FREC_POST Media Desviación típ. Diferencias relacionadas 95% Intervalo de confianza para la diferencia Error típ. de la media Inf erior Superior t gl Sig. (bilateral) 9, ,154,031 4, ,876 4,496 9,000 EEMDIF Denominador del t test Como el 0 no está incluido en el I.C., Rechazamos la H0 Significación estadística (p<0,05) 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 14-3

15 Interpretación: Puede estimarse con una confianza del 95% que la verdadera diferencia entre las medias se encuentra entre 4,97 y 13,8 pulsaciones (a favor de la frecuencia cardiaca antes del entrenamiento). Obtenemos una valor t=4,496 con un p-valor=0,000, luego podemos rechazar nuestra H 0. Existen evidencias (con una confianza del 95%) para afirmar que el programa de entrenamiento se ha acompañado de un descenso en la frecuencia cardiaca. El descenso medio estimado fue de 9 latidos por minuto después del programa de entrenamiento. Podemos resumir en estas cuatro alternativas los métodos de los que disponemos para hacer comparaciones de dos medias: Figura 8.4 Los tests no paramétricos los veremos en el último tema. 8.4 COMPARACIÓN DE MÁS DE DOS MEDIAS: ANOVA Cuando hay más de dos grupos, no es correcto usar la t de Student, pues esto supondría hacer varios tests por parejas, incrementándose globalmente la tasa de error. En estos casos, se debe utilizar el análisis de la varianza de una vía 5. Del inglés ANalysis Of VAriance ha quedado la abreviatura ANOVA. Su nombre está basado en el método que se utiliza y puede desorientar, pero el ANOVA no compara varianzas, sino medias y es el test indicado cuando se desean comparar las medias de tres o más grupos independientes. La t de Student para dos medias independientes es sólo un caso particular del análisis de la varianza. Si se recurriese al ANOVA para comparar sólo dos grupos, se obtendrían exactamente los mismos resultados que con la t de Student. 5 Caso más simple del ANOVA 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 15-3

16 La situación que vamos a tratar es similar a la del t-test para muestras independientes: La variable a contrastar (dependiente) es cuantitativa. La variable de agrupación es cualitativa con más de dos categorías. El ANOVA es un método paramétrico y exige el cumplimiento de unos supuestos, de manera que cuando no se cumplan las condiciones de aplicación se dispone de una técnica no paramétrica que es el test de Kruskal-Wallis. El ANOVA contrasta la hipótesis nula de que todas las poblaciones de las que proceden los grupos tienen medias idénticas. La hipótesis alternativa es simplemente que los grupos son distintos entre sí. H 0: 1... K H 1: al menos una de las medias es distinta Un ANOVA produce un valor p que contesta a la pregunta: si la hipótesis nula fuese cierta, cuál sería la probabilidad de que las medias de muestras tomadas al azar difiriesen tanto o más que lo observado? Para ello tenemos que calcular un cociente entre: efecto debido a la pertenencia a los grupos dispersión debida al azar (error aleatorio) Al igual que en otros tests, este cociente da como resultado un valor, en este caso se llama F 6. Este valor F es el que, comparándolo con el de las tablas correspondientes (distribución F), se transforma en un valor p. Dicho valor p se interpreta como la probabilidad de hallar unas medias de los grupos tan diferentes entre sí como las observadas (o más aún), si procediesen de poblaciones que tienen exactamente la misma media (hipótesis nula). Como su nombre indica, este test se basa en un análisis o partición de los componentes de la varianza. Recordemos que una varianza es el cociente que resulta de dividir una suma de cuadrados (SC) entre sus grados de libertad. varianza x i x SC n 1 g. l. Cuando se combinan datos de diversos grupos, la suma de cuadrados SC tiene dos componentes (figura 8.5): 6 F de Snedecor (o de Fisher, que fue quien lo describió). 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 16-3

17 Suma de cuadrados entre grupos (SC_grupo o SC_inter) Suma de cuadrados dentro de los grupos (SC_residual o SC_intra) Cuanto más diferentes sean los grupos entre sí, mayor proporción de la SC total vendrá de la diferencia de las medias de los distintos grupos entre sí. Los modelos ANOVA se basan en la idea de que la variabilidad total de los datos es la suma de dos componentes: la variabilidad debida a las diferencias entre los distintos sujetos y la debida a las diferencias entre las medidas para cada sujeto. Figura 8.5 Descomposición de la suma de cuadrados totales Si la H 0 fuese cierta, la SC total vendría casi toda de la SC_intra porque cada valor estaría tan cercano a la media total como a la media de su grupo. Cuando la H 0 es falsa, cada valor estará mucho más cerca de la media de su grupo que de la media total, la SC total será mucho mayor que la SC_intra. Veamos un ejemplo del contraste ANOVA. Ejemplo 8.3: Se realiza una investigación para averiguar cómo distintos tipos de intervención sobre la dieta influyen en el cambio de los niveles de colesterol después de 6 meses de intervención en voluntarios que no presentan hipercolesterolemia. Se han asignado 5 voluntarios al grupo control, 5 a una dieta moderada y 4 a una dieta estricta. Los resultados del cambio de colesterol LDL (mg/dl) se recogen en la siguiente tabla: 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 17-3

18 La media total de los 14 sujetos fue de -6 mg/dl. Nuestra hipótesis nula es que el cambio es independiente de la intervención; es decir, el pertenecer a un grupo u otro no influye en el cambio del colesterol LDL. H 0: el pertenecer a un grupo u otro no influye en el cambio del colesterol H 1: hay diferencias entre las medias de los tres grupos Como vemos, en nuestra muestra, hay pequeñas diferencias entre las medias de los tres grupos: Grupo control: ligero incremento en sus niveles medios (+3 mg/dl) Dieta moderada: han reducido sus niveles (-10. mg/dl) Dieta estricta: los han reducido todavía más (-1 mg/dl) x T 6 La H 0 mantiene que la media total es una buena explicación de lo que ocurre en cada individuo. La H 1 mantiene que las medias de los grupos son mejores que la media total para resumir lo que ocurre en cada individuo. Las medias de los grupos son diferentes entre sí, nunca serán exactamente iguales. Veamos en nuestro ejemplo los pasos que hay que seguir para hacer los cálculos de un ANOVA: A. Descomposición de la suma de cuadrados: Suma de cuadrados totales (SCT): SCT ( x x i T ) x i ( x ) N i Suma de cuadrados ENTRE grupos (SCG): SCG ni (Media grupo_ i Media total) SCG 5(3 6) 5( 10. 6) 4( 1 6) 637, 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 18-3

19 Suma de cuadrados residuales (SCR): SCR = SCT-SCG SCR = , = 670,8 B. Descomposición de los grados de libertad: G.L. totales: g.l.t.= N-1 = 14-1 = 13 G.L. entre grupos: g.l.g.= k-1 = 3-1 = G.L. residuales: g.l.r.= N-k = 14-3 = 11 C. Descomposición de las varianzas: Varianzas entre grupos SCR Varianza residual g. l. r SCG g. l. g 670, , ,6 D. Cálculo del cociente F: Es un cociente entre varianzas: varianza inter grupos dividida entre varianza residual (intra grupos). Tiene en el numerador los g.l. de la varianza entre grupos y en el denominador los g.l. de la varianza residual. F Varianza _ entre _ grupos Varianza _ residual 61,11 E. Comparación de la F obtenida con la que aparece en las tablas: Siempre que el valor F encontrado sea superior al tabulado, diremos que hay significación estadística. Como F,11 = 5. > F,11;0.05 = 3.98 la prueba es estadísticamente significativa con una p< Con SPSS, obtendríamos la siguiente tabla: 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 19-3

20 F. Interpretación: Se rechaza la hipótesis nula de igualdad de medias. No puede decirse que en los 3 grupos se haya producido el mismo cambio medio en el colesterol LDL. Si el cambio medio de los 3 grupos, a nivel poblacional, fuese el mismo, encontraríamos las diferencias que hay en la muestra o unas todavía mayores en menos del 5% de las muestras que se podrían obtener en esa población Condiciones de aplicación del ANOVA Para que los resultados del ANOVA puedan considerarse válidos hay que comprobar que se cumplen unas condiciones de aplicación. Estas condiciones son: A) TIPOS DE VARIABLES La variable dependiente debe ser cuantitativa. La variable dependiente es la variable que se quiere comparar. En nuestro ejemplo sería el colesterol LDL. La variable independiente es el factor o variable de agrupación y debe ser cualitativa. La variable independiente es el factor que clasifica las observaciones en distintos grupos. En nuestro ejemplo sería la dieta. B) NORMALIDAD Aunque suele decirse que el requisito es que la variable dependiente siga una distribución normal, lo realmente importante es que la distribución de los residuales (diferencia entre cada valor y la media de su grupo) se aproxime bien a una normal. En SPSS se crea la variable que llamaremos residual y se comprueba su normalidad mediante el test de Kolmogorov-Smirnov o Shapiro-Wilks. En el ejemplo 8.3, podemos asumir que los residuos siguen una distribución normal: resid Kolmogorov-Smirnov a Pruebas de normalidad Estadístico gl Sig. Estadístico gl Sig.,109 14,00*,96 14,758 *. Este es un límite inf erior de la significación verdadera. a. Corrección de la signif icación de Lillief ors Shapiro-Wilk C) HOMOGENEIDAD DE VARIANZAS U HOMOCEDASTICIDAD Las varianzas de cada grupo deben ser iguales 1... K. Es decir, las dispersiones de los datos no deben diferir entre los grupos a comparar. Esto se comprueba en SPSS con el test de Levene En el ejemplo 8.3, según la prueba de Levene podemos asumir igualdad de varianzas en los tres grupos. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 0-3

21 De todos modos, el ANOVA es una técnica robusta porque sus resultados se alteran muy poco si se producen transgresiones de sus supuestos de aplicación. Además, cuanto mayor sea el tamaño de la muestra, menos importante es asegurar que no haya desviación de la normalidad o de la homocedasticidad. En cualquier caso, cuando las transgresiones sean extremas, se debe recurrir a métodos no paramétricos (test de Kruskal-Wallis). En conclusión, comenzaríamos con la comprobación de las condiciones de aplicación y después calcularíamos el cociente F. Si F calculado < F tabulado, no se puede rechazar la hipótesis nula de igualdad de medias, y no se tienen evidencias para afirmar que los grupos procedan de poblaciones con medias distintas. En esta situación, ahí acaba el ANOVA. Si F calculado > F tabulado, se debe rechazar la hipótesis nula y concluir que existen diferencias entre las medias de los grupos. Para buscar específicamente dónde están esas diferencias deben realizarse contrastes o comparaciones particulares entre los grupos Contrastes: Comparaciones a priori y a posteriori Cuando el ANOVA resulta estadísticamente significativo llegamos a la conclusión de que las medias de los distintos grupos son diferentes entre sí, es decir, al menos hay una media que es diferente de alguna otra. En realidad, esta conclusión es incompleta, porque no nos dice dónde están esas diferencias. En el ejemplo 8.3, nos podríamos preguntar si los individuos del grupo control tienen un cambio significativamente peor que los individuos de los dos grupos de intervención con dieta (moderada y estricta). O bien, si los de la dieta estricta han disminuido más su colesterol que los de la dieta moderada. Cómo buscamos esas diferencias? Se pueden utilizar dos métodos: Comparaciones a priori: Se planifican antes de iniciar el análisis de los datos. Suele tratarse de realizar sólo algunas comparaciones, las que resulten más interesantes para alcanzar el objetivo de la investigación. En el ejemplo podríamos haber planteado otras H 0: 1ª El descenso del colesterol en el grupo de control es menor que el de los dos grupos que siguieron la dieta; ª El descenso del colesterol en el grupo que siguió dieta estricta es mayor que en el que siguió dieta moderada. 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 1-3

22 Comparaciones a posteriori (post hoc): Son todas las posibles comparaciones de medias que pueden hacerse por parejas ( a ) y se utilizan cuando no se ha planificado la investigación. Para estas comparaciones múltiples existen varios procedimientos, ya que no hay un acuerdo universal sobre cuál se debe utilizar. Los más clásicos y conocidos (que podemos obtener con SPSS como muestra la figura 8.7) son el de Bonferroni y el de Scheffé. Figura 8.7 En nuestro ejemplo, al hacer todas las comparaciones mediante el método de Bonferroni en SPSS, sólo resulta significativa la del grupo control frente al grupo de dieta estricta. Comparaciones múltiples Variable dependiente: cambio en los niveles de colesterol Bonf erroni (I) grupo control moderada estricta (J) grupo moderada estricta control estricta control moderada Diferencia de Límite medias (I-J) Error típico Sig. Límite inf erior superior 13,00 4,939,065 -,73 7,13 *. La diferencia de medias es significativa al nivel.05. Interv alo de confianza al 95% 15,000* 5,38,046,3 9,77-13,00 4,939,065-7,13,73 1,800 5,38 1,000-1,97 16,57-15,000* 5,38,046-9,77 -,3-1,800 5,38 1,000-16,57 1,97 Resumen: pasos a seguir en el ANOVA de una vía 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas - 3

23 Figura 8.8 Comparación de k medias 08. Inferencia paramétrica: relación entre variables cualitativas y cuantitativas 3-3

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD Contrastes de hipótesis paramétricos para una y varias muestras: contrastes sobre la media, varianza y una proporción. Contrastes sobre la diferencia

Más detalles

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD

TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD TÉCNICAS ESTADÍSTICAS APLICADAS EN NUTRICIÓN Y SALUD Contrastes de hipótesis paramétricos para una y varias muestras: contrastes sobre la media, varianza y una proporción. Contrastes sobre la diferencia

Más detalles

CONTRASTES DE HIPÓTESES

CONTRASTES DE HIPÓTESES CONTRASTES DE IPÓTESES 1. Contraste de hipótesis 2. Contrastes de tipo paramétrico 2.1 Contraste T para una muestra 2.2 Contraste T para dos muestras independientes 2.3 Análisis de la varianza 3. Contrastes

Más detalles

INFERENCIA PARÁMETRICA: RELACIÓN ENTRE DOS VARIABLES CUALITATIVAS

INFERENCIA PARÁMETRICA: RELACIÓN ENTRE DOS VARIABLES CUALITATIVAS . Metodología en Salud Pública INFERENCIA PARÁMETRICA: RELACIÓN ENTRE DOS VARIABLES CUALITATIVAS Autor: Clara Laguna 7.1 INTRODUCCIÓN Los datos categóricos o variables cualitativas son muy frecuentes en

Más detalles

7. De acuerdo con la gráfica siguiente, el contraste estadístico es:

7. De acuerdo con la gráfica siguiente, el contraste estadístico es: 1. Un investigador desea saber si los hombres y las mujeres difieren en flexibilidad cognitiva. Para ello, analiza los datos y obtienen los siguientes resultados. Satisfacen los datos el supuesto de homocedasticidad?

Más detalles

Comparación de dos grupos independientes Solución no paramétrica. En capítulo 12: Métodos no paramétricos

Comparación de dos grupos independientes Solución no paramétrica. En capítulo 12: Métodos no paramétricos Comparación de dos grupos independientes Solución no paramétrica En capítulo 12: Métodos no paramétricos Los métodos que hemos visto hasta ahora, asumen como distribución muestral la distribución Normal,

Más detalles

Intervalos de Confianza

Intervalos de Confianza Bases de Estadística Licenciatura en Ciencias Ambientales Curso 2oo3/2oo4 Intervalos de Confianza El objetivo de esta práctica es ilustrar las diferentes técnicas para construir intervalos de confianza

Más detalles

Caso particular: Contraste de homocedasticidad

Caso particular: Contraste de homocedasticidad 36 Bioestadística: Métodos y Aplicaciones 9.5.5. Caso particular: Contraste de homocedasticidad En la práctica un contraste de gran interés es el de la homocedasticidad o igualdad de varianzas. Decimos

Más detalles

Prueba t para muestras independientes

Prueba t para muestras independientes Prueba t para muestras independientes El procedimiento Prueba t para muestras independientes compara las medias de dos grupos de casos. Para esta prueba, idealmente los sujetos deben asignarse aleatoriamente

Más detalles

Estructura de este tema. Tema 3 Contrastes de hipótesis. Ejemplo

Estructura de este tema. Tema 3 Contrastes de hipótesis. Ejemplo Estructura de este tema Tema 3 Contrastes de hipótesis José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Qué es un contraste de hipótesis? Elementos de un contraste: hipótesis,

Más detalles

Métodos de Investigación en Psicología (11) Dra. Lucy Reidl Martínez Dra. Corina Cuevas Reynaud Dra. Renata López Hernández

Métodos de Investigación en Psicología (11) Dra. Lucy Reidl Martínez Dra. Corina Cuevas Reynaud Dra. Renata López Hernández Métodos de Investigación en Psicología (11) Dra. Lucy Reidl Martínez Dra. Corina Cuevas Reynaud Dra. Renata López Hernández El método incluye diferentes elementos Justificación Planteamiento del problema

Más detalles

Estadística II Examen final junio 27/6/17 Curso 2016/17 Soluciones

Estadística II Examen final junio 27/6/17 Curso 2016/17 Soluciones Estadística II Examen final junio 27/6/7 Curso 206/7 Soluciones Duración del examen: 2 h y 5 min. (3 puntos) Los responsables de un aeropuerto afirman que el retraso medido en minutos en el tiempo de salida

Más detalles

Estadística II Examen final junio - 17/06/16 Curso 2015/16 Soluciones Duración del examen: 2 h. y 45 min.

Estadística II Examen final junio - 17/06/16 Curso 2015/16 Soluciones Duración del examen: 2 h. y 45 min. Estadística II Examen final junio - 17/06/16 Curso 201/16 Soluciones Duración del examen: 2 h. y 4 min. 1. (3, puntos) La publicidad de un fondo de inversión afirma que la rentabilidad media anual del

Más detalles

Estadística II Examen Final 19/06/2015 Soluciones. Responda a las preguntas siguientes en los cuadernillos de la Universidad

Estadística II Examen Final 19/06/2015 Soluciones. Responda a las preguntas siguientes en los cuadernillos de la Universidad Estadística II Examen Final 19/06/2015 Soluciones Responda a las preguntas siguientes en los cuadernillos de la Universidad Utilice diferentes cuadernillos para responder a cada uno de los ejercicios Indique

Más detalles

Estadística; 3º CC. AA. Examen final, 23 de enero de 2009

Estadística; 3º CC. AA. Examen final, 23 de enero de 2009 Estadística; 3º CC. AA. Examen final, 3 de enero de 9 Apellidos Nombre: Grupo: DNI. (5 ptos.) En un estudio sobre las variables que influyen en el peso al nacer se han obtenido utilizando SPSS los resultados

Más detalles

9.- Análisis estadísticos con R Commander

9.- Análisis estadísticos con R Commander Tipos de datos - Cuantitativos: se expresan numéricamente. - Discretos: Toman valores numéricos aislados - Continuos: Toman cualquier valor dentro de unos límites dados - Categóricos o Cualitativos: No

Más detalles

Estrategia de análisis estadístico de los datos. Inferencia Estadística y contraste de hipótesis

Estrategia de análisis estadístico de los datos. Inferencia Estadística y contraste de hipótesis Estrategia de análisis estadístico de los datos. Inferencia Estadística y contraste de hipótesis VDC Prof. Mª JOSÉ PRIETO CASTELLÓ MÉTODOS ESTADÍSTICOS. TÉCNICAS ESTADÍSTICA DESCRIPTIVA TEORÍA DE LA PROBABILIDAD

Más detalles

TEMA 10 COMPARAR MEDIAS

TEMA 10 COMPARAR MEDIAS TEMA 10 COMPARAR MEDIAS Los procedimientos incluidos en el menú Comparar medias permiten el cálculo de medias y otros estadísticos, así como la comparación de medias para diferentes tipos de variables,

Más detalles

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II PRÁCTICA 5 En una determinada investigación se estudió el rendimiento en matemáticas en función del estilo de aprendizaje de una serie de estudiantes de educación

Más detalles

Bioestadística y uso de software científico TEMA 5 DATOS CONTINUOS COMPARACIONES DE MEDIAS ENTRE DOS GRUPOS

Bioestadística y uso de software científico TEMA 5 DATOS CONTINUOS COMPARACIONES DE MEDIAS ENTRE DOS GRUPOS Bioestadística y uso de software científico TEMA 5 DATOS CONTINUOS COMPARACIONES DE MEDIAS ENTRE DOS GRUPOS Hasta ahora... Tema Variable dependiente Variable independiente Test Tema 4 Categórica Categórica

Más detalles

PRÁCTICA 3. REGRESIÓN LINEAL SIMPLE CON SPSS Ajuste de un modelo de regresión lineal simple Porcentaje de variabilidad explicado

PRÁCTICA 3. REGRESIÓN LINEAL SIMPLE CON SPSS Ajuste de un modelo de regresión lineal simple Porcentaje de variabilidad explicado PÁCTICA 3. EGESIÓN LINEAL SIMPLE CON SPSS 3.1. Gráfico de dispersión 3.2. Ajuste de un modelo de regresión lineal simple 3.3. Porcentaje de variabilidad explicado 3.4 Es adecuado este modelo para ajustar

Más detalles

TEMA 4 FASE ESTADÍSTICO-ANALÍTICA: RECURSOS PARA EL ANÁLISIS DE DATOS

TEMA 4 FASE ESTADÍSTICO-ANALÍTICA: RECURSOS PARA EL ANÁLISIS DE DATOS TEMA 4 FASE ESTADÍSTICO-ANALÍTICA: RECURSOS PARA EL ANÁLISIS DE DATOS FASES EN EL ANÁLISIS DE LOS DATOS DE UNA INVESTIGACIÓN SELECCIÓN HIPÓTESIS DE INVESTIGACIÓN Modelo de Análisis Técnica de Análisis

Más detalles

Tema 18 Análisis de la varianza de un factor (ANOVA) Contraste paramétrico de hipótesis

Tema 18 Análisis de la varianza de un factor (ANOVA) Contraste paramétrico de hipótesis Tema 18 Análisis de la varianza de un factor () Contraste paramétrico de hipótesis Compara la distribución de una variable continua normal en mas de dos poblaciones (niveles o categorías) Pruebas de contraste

Más detalles

EXAMEN Prof. J. Calventus S., 19 julio de 2013

EXAMEN Prof. J. Calventus S., 19 julio de 2013 U. S. T. Psicología Estadística Inferencial EXAMEN Prof. J. Calventus S., 19 julio de 2013 NOMBRE: Puntaje: Nota: Para responder esta prueba podrá consultarse todo tipo de material escrito. Utiliza un

Más detalles

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO TEMA II ESQUEMA GENERAL Definición y clasificación del diseño experimental de grupos Diseño experimental de dos grupos: definición y clasificación Diseño experimental de dos grupos: análisis estadístico

Más detalles

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia

Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Estudio de Caso: Estudio Morfología Coeficiente de Correlación Considere el archivo Estudio Morfología.sav.

Más detalles

Capítulo 13 Contrastes sobre medias Los procedimientos Medias y Prueba T

Capítulo 13 Contrastes sobre medias Los procedimientos Medias y Prueba T Capítulo 13 Contrastes sobre medias Los procedimientos Medias y Prueba T La opción Comparar medias del menú Analizar contiene varios de los procedimientos estadísticos diseñados para efectuar contrastes

Más detalles

Elaborado por: Pelay, C. y Pérez, J. Prueba t para muestras independientes

Elaborado por: Pelay, C. y Pérez, J. Prueba t para muestras independientes Prueba t para muestras independientes 1 El procedimiento Prueba t para muestras independientes compara las medias de dos grupos de casos. Para esta prueba, idealmente los sujetos deben asignarse aleatoriamente

Más detalles

Ejercicio obligatorio seminario 9. Estadística

Ejercicio obligatorio seminario 9. Estadística Ejercicio obligatorio seminario 9. Estadística En una muestra de 8 personas medimos la frecuencia cardíaca (FC) y la edad. 1. Di si en la muestra existe asociación lineal o correlación entre las dos variables

Más detalles

ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA)

ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA) ANÁLISIS DE LA VARIANZA CON UN FACTOR (ANOVA) El análisis de la varianza permite contrastar la hipótesis nula de que las medias de K poblaciones (K >2) son iguales, frente a la hipótesis alternativa de

Más detalles

REGRESIÓN LINEAL SIMPLE

REGRESIÓN LINEAL SIMPLE REGRESIÓN LINEAL SIMPLE 1. El problema de la regresión lineal simple. Método de mínimos cuadrados 3. Coeficiente de regresión 4. Coeficiente de correlación lineal 5. El contraste de regresión 6. Inferencias

Más detalles

ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA

ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA www.jmontenegro.wordpress.com UNI ESTIMACIÓN Y PRUEBA DE HIPÓTESIS INTERVALOS DE CONFIANZA PROF. JOHNNY MONTENEGRO MOLINA Objetivos Desarrollar el concepto de estimación de parámetros Explicar qué es una

Más detalles

BIOSESTADÍSTICA AMIGABLE

BIOSESTADÍSTICA AMIGABLE BIOSESTADÍSTICA AMIGABLE EJEMPLO: Ficha solicitud Colección Reserva UNIVERSIDAD AUSTRAL DE CHILE SISTEMA DE BIBLIOTECAS Clasificación: 574.015195 MAR 2001 Vol. y/o Copia: Apellido Autor: Título: C. 1 (SEGÚN

Más detalles

Práctica 5 ANÁLISIS DE UNA MUESTRA INTERVALOS DE CONFIANZA CONTRASTE DE HIPÓTESIS

Práctica 5 ANÁLISIS DE UNA MUESTRA INTERVALOS DE CONFIANZA CONTRASTE DE HIPÓTESIS Práctica. Intervalos de confianza 1 Práctica ANÁLISIS DE UNA MUESTRA INTERVALOS DE CONFIANZA CONTRASTE DE HIPÓTESIS Objetivos: Ilustrar el grado de fiabilidad de un intervalo de confianza cuando se utiliza

Más detalles

Al nivel de confianza del 95%, las puntuaciones típicas son: 2- La hipótesis alternativa es; A) ; B) ; C).

Al nivel de confianza del 95%, las puntuaciones típicas son: 2- La hipótesis alternativa es; A) ; B) ; C). A continuación se presentan 4 situaciones. Cada situación viene seguida por una serie de preguntas referidas a la misma así como de preguntas teóricas generales. SITUACIÓN 1: La empresa SND's de sondeos

Más detalles

Tema 13 : Intervalos de probabilidad y confianza. Hipótesis y decisiones estadísticas.

Tema 13 : Intervalos de probabilidad y confianza. Hipótesis y decisiones estadísticas. Tema 13 : Intervalos de probabilidad y confianza. Hipótesis y decisiones estadísticas. ---Intervalo de probabilidad (IP) Permite predecir el comportamiento de las muestras. Si de una población se sacan

Más detalles

1. Realice la prueba de homogeneidad de variancias e interprete los resultados.

1. Realice la prueba de homogeneidad de variancias e interprete los resultados. 1ª PRÁCTICA DE ORDENADOR (FEEDBACK) Un investigador pretende evaluar la eficacia de dos programas para mejorar las habilidades lectoras en escolares de sexto curso. Para ello asigna aleatoriamente seis

Más detalles

Capítulo 13. Contrastes sobre medias: Los procedimientos Medias y Prueba T. Medias

Capítulo 13. Contrastes sobre medias: Los procedimientos Medias y Prueba T. Medias Capítulo 13 Contrastes sobre medias: Los procedimientos Medias y Prueba T La opción Comparar medias del menú Analizar contiene varios de los procedimientos estadísticos diseñados para efectuar contrastes

Más detalles

Estadística II Examen final enero 19/1/17 Curso 2016/17 Soluciones Duración del examen: 2 h y 15 min

Estadística II Examen final enero 19/1/17 Curso 2016/17 Soluciones Duración del examen: 2 h y 15 min Estadística II Examen final enero 19/1/17 Curso 016/17 Soluciones Duración del examen: h y 15 min 1. 3 puntos El Instituto para la Diversificación y Ahorro de la Energía IDAE ha publicado un estudio sobre

Más detalles

ESTADÍSTICA 1º AMBIENTALES TERCERA PRÁCTICA: INTERVALOS DE CONFIANZA & CONTRASTES DE HIPÓTESIS (GUIADA & RESUELTA)

ESTADÍSTICA 1º AMBIENTALES TERCERA PRÁCTICA: INTERVALOS DE CONFIANZA & CONTRASTES DE HIPÓTESIS (GUIADA & RESUELTA) ESTADÍSTICA 1º AMBIENTALES TERCERA PRÁCTICA: INTERVALOS DE CONFIANZA & CONTRASTES DE HIPÓTESIS (GUIADA & RESUELTA) El objetivo de esta práctica es calcular Intervalos de Confianza (IC) y Contrastes de

Más detalles

Folleto de Estadísticas. Teoría del 2do Parcial

Folleto de Estadísticas. Teoría del 2do Parcial Folleto de Estadísticas Teoría del 2do Parcial 2012 Variables aleatorias conjuntas continuas: Sean X y Y dos variables aleatorias continuas con ellas se asocia una función denominada función de densidad

Más detalles

SIGNIFICACIÓN ESTADÍSTICA DE LA DIFERENCIA ENTRE 2 MEDIAS

SIGNIFICACIÓN ESTADÍSTICA DE LA DIFERENCIA ENTRE 2 MEDIAS SIGNIFICACIÓN ESTADÍSTICA DE LA DIFERENCIA ENTRE 2 MEDIAS 3datos 2011 Variables CUANTITATIVAS Valor más representativo: MEDIA aritmética Técnicas Inferenciales sobre la significación de la diferencia entre

Más detalles

ALTERNATIVAS NO PARAMÉTRICAS AL ANÁLISIS DE LA VARIANZA

ALTERNATIVAS NO PARAMÉTRICAS AL ANÁLISIS DE LA VARIANZA ALTERATIVAS O PARAMÉTRICAS AL AÁLISIS DE LA VARIAA 1.- Introducción... 2 2.- Prueba de Kruskal Wallis para muestras independientes... 3 3.- Prueba de Friedman para medidas repetidas... 6 1.- Introducción

Más detalles

ESTADÍSTICA APLICADA A LA MEDICINA LABORAL

ESTADÍSTICA APLICADA A LA MEDICINA LABORAL ESTADÍSTICA APLICADA A LA MEDICINA LABORAL ---oo--- II Curso 29/ Pedro Femia Marzo Bioestadística - Facultad de Medicina http://www.ugr.es/local/bioest Un esquema general de comparación de medias 2 Asumible

Más detalles

Análisis de la varianza ANOVA

Análisis de la varianza ANOVA Estadística Básica. Mayo 2004 1 Análisis de la varianza ANOVA Francisco Montes Departament d Estadística i I. O. Universitat de València http://www.uv.es/~montes Estadística Básica. Mayo 2004 2 Comparación

Más detalles

TEMA Nº 2 CONTRASTE DE HIPÓTESIS EN LOS DISEÑOS DE UNA MUESTRA

TEMA Nº 2 CONTRASTE DE HIPÓTESIS EN LOS DISEÑOS DE UNA MUESTRA TEMA Nº 2 CONTRASTE DE HIPÓTESIS EN LOS DISEÑOS DE UNA MUESTRA TIPOS DE CONTRASTE Contrastes paramétricos: Son aquellos que se relacionan con el estudio de un parámetro poblacional (media, varianza, proporción,

Más detalles

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes

ANOVA. Análisis de la Varianza. Univariante Efectos fijos Muestras independientes ANOVA Análisis de la Varianza Univariante Efectos fijos Muestras independientes De la t a la F En el test de la t de Student para muestras independientes, aprendimos como usar la distribución t para contrastar

Más detalles

ALTERNATIVAS NO PARAMÉTRICAS A LOS CONTRASTES DE MEDIAS

ALTERNATIVAS NO PARAMÉTRICAS A LOS CONTRASTES DE MEDIAS ALTERNATIVAS NO PARAMÉTRICAS A LOS CONTRASTES DE MEDIAS 1.- Introducción... 2 2.- Prueba U de Mann Whitney para muestras independientes... 3 3.- Prueba t de Wicoxon para muestras apareadas... 8 1.- Introducción

Más detalles

Tema 15: Contrastes de hipótesis sobre algunos parámetros

Tema 15: Contrastes de hipótesis sobre algunos parámetros ema 15: Contrastes de hipótesis sobre algunos parámetros 1. CORASE DE HIPÓESIS SOBRE LA MEDIA, Conocida Desconocida. CORASE DE HIPÓESIS SOBRE LA CORRELACIÓ, Bibliografía: ema 15 (págs. 379-4) Ejercicios

Más detalles

Ejemplo Diseño Completamente aleatorizado (Pág. 470 Montgomery)

Ejemplo Diseño Completamente aleatorizado (Pág. 470 Montgomery) Ejemplo Diseño Completamente aleatorizado (Pág. 47 Montgomery) ) Representación gráfica de los datos mediante diagramas de caja Resumen del procesamiento de los casos Tension del papel (psi) Casos Válidos

Más detalles

Inferencia Estadística. Pruebas paramétricas y no paramétricas. Análisis de datos

Inferencia Estadística. Pruebas paramétricas y no paramétricas. Análisis de datos Inferencia Estadística. Pruebas paramétricas y no paramétricas. Análisis de datos VDC Prof. Mª JOSÉ PRIETO CASTELLÓ ANÁLISIS ESTADÍSTICO DE DATOS Estadística Descriptiva: -Cualitativas: frecuencias, porcentajes

Más detalles

ESTADÍSTICA. Tema 4 Regresión lineal simple

ESTADÍSTICA. Tema 4 Regresión lineal simple ESTADÍSTICA Grado en CC. de la Alimentación Tema 4 Regresión lineal simple Estadística (Alimentación). Profesora: Amparo Baíllo Tema 4: Regresión lineal simple 1 Estructura de este tema Planteamiento del

Más detalles

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO

DISEÑOS EXPERIMENTALES DE DOS GRUPOS Y MULTIGRUPO TEMA II ESQUEMA GENERAL Diseño experimental de dos grupos: definición y clasificación Formatos del diseño y prueba de hipótesis Diseño experimental multigrupo: definición Formato del diseño multigrupo

Más detalles

Prueba T de Student. Descripción de la Prueba T de student. Proceso de cálculo. Criterios de la prueba T de student

Prueba T de Student. Descripción de la Prueba T de student. Proceso de cálculo. Criterios de la prueba T de student Descripción de la Prueba T de student Prueba T de student Víctor Cuchillac (padre) Prueba paramétrica para evaluar la asociación entre una variable nominal y una variable cuantitativa dicotómica (que posea

Más detalles

Cuando los ceros de la p sí importan

Cuando los ceros de la p sí importan Cuando los ceros de la p sí importan Ya sabemos que para contrastar la igualdad de medias de dos muestras que se distribuyan de forma normal podemos utilizar la prueba de la t de Student. Así que asumimos

Más detalles

Estructura de este tema. Tema 4 Regresión lineal simple. Ejemplo: consumo de vino y dolencias cardíacas. Frecuencias

Estructura de este tema. Tema 4 Regresión lineal simple. Ejemplo: consumo de vino y dolencias cardíacas. Frecuencias Estructura de este tema Tema 4 Regresión lineal simple José R. Berrendero Departamento de Matemáticas Universidad utónoma de Madrid Planteamiento del problema. Ejemplos Recta de regresión de mínimos cuadrados

Más detalles

BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN

BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN BLOQUE 3 TEMA 11 ESTIMACIÓN DE PARÁMETROS. ERRORES DE ESTIMACIÓN Aproximación intutitiva a la inferencia estadística La Estadística es la ciencia que se ocupa de la ordenación y análisis de datos procedentes

Más detalles

ECONOMETRÍA I. Tema 4: El Modelo de Regresión Lineal Múltiple: inferencia y validación

ECONOMETRÍA I. Tema 4: El Modelo de Regresión Lineal Múltiple: inferencia y validación ECONOMETRÍA I Tema 4: El Modelo de Regresión Lineal Múltiple: inferencia y validación Patricia Moreno Juan Manuel Rodriguez Poo Alexandra Soberon Departamento de Economía Alexandra Soberon (UC) ECONOMETRÍA

Más detalles

14 horas. 20 horas

14 horas. 20 horas EJERCICIOS PROPUESTOS ANALISIS DE VARIANZA. Se realiza un ANOVA para comparar el tiempo que demora en aliviar el dolor de cabeza de varios tipos de analgésicos. Se obtiene como resultado un test observado

Más detalles

Comparación de métodos de aprendizaje sobre el mismo problema

Comparación de métodos de aprendizaje sobre el mismo problema Comparación de métodos de aprendizaje sobre el mismo problema Carlos Alonso González Grupo de Sistemas Inteligentes Departamento de Informática Universidad de Valladolid Contenido 1. Motivación. Test de

Más detalles

Conceptos del contraste de hipótesis

Conceptos del contraste de hipótesis Análisis de datos y gestión veterinaria Contraste de hipótesis Departamento de Producción Animal Facultad de Veterinaria Universidad de Córdoba Córdoba, 14 de Diciembre de 211 Conceptos del contraste de

Más detalles

TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS

TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS LECTURA OBLIGATORIA Capítulo 2: Preparación del Archivo de datos. En Rial, A. y Varela, J. (2008). Estadística Práctica para la Investigación en Ciencias de

Más detalles

CONTRASTES PARAMÉTRICOS

CONTRASTES PARAMÉTRICOS CONTRASTES PARAMÉTRICOS Contenidos Introducción 75 Contraste de dos medias 76 Grupos independientes 77 Grupos dependientes 85 Contraste de dos varianzas independientes 92 ANOVAs Unifactoriales entre e

Más detalles

ANÁLISIS ESTADÍSTICO PRUEBA DE HIPOTESIS

ANÁLISIS ESTADÍSTICO PRUEBA DE HIPOTESIS ANÁLISIS ESTADÍSTICO PRUEBA DE HIPOTESIS Jorge Fallas jfallas56@gmail.com 2010 1 Temario Datos experimentales y distribuciones de referencia Una media poblacional Hipótesis nula, alternativa y nivel de

Más detalles

Análisis de datos en CCSS: introducción al análisis descriptivo e inferencial

Análisis de datos en CCSS: introducción al análisis descriptivo e inferencial Programa de Doctorado Formación en la Sociedad del Conocimiento Seminario de doctorado 13 y 14 de marzo de 2014 Análisis de datos en CCSS: introducción al análisis descriptivo e inferencial Dra. Mª José

Más detalles

Se desea analizar el nivel de glucemia según tratamientos en un grupo de. enfermos. Para ello se ha medido este nivel antes y después de dichos

Se desea analizar el nivel de glucemia según tratamientos en un grupo de. enfermos. Para ello se ha medido este nivel antes y después de dichos Práctica 4: Estadística Matemática Ejercicio 1: Se desea analizar el nivel de glucemia según tratamientos en un grupo de enfermos. Para ello se ha medido este nivel antes y después de dichos tratamientos.

Más detalles

Grupo 4: BUENAS PRÁCTICAS ESTADÍSTICAS

Grupo 4: BUENAS PRÁCTICAS ESTADÍSTICAS Red ibérica de evaluación de eficacia y efectos secundarios de tratamientos para el control de plagas en el olivar (RIESPO) 2ª Reunión, Madrid 10-11/06/2010 Grupo 4: BUENAS PRÁCTICAS ESTADÍSTICAS ESTADÍSTICA

Más detalles

ESTADÍSTICA APLICADA. Tema 3: Contrastes de hipótesis

ESTADÍSTICA APLICADA. Tema 3: Contrastes de hipótesis ESTADÍSTICA APLICADA Grado en Nutrición Humana y Dietética Tema 3: Contrastes de hipótesis Qué es un contraste de hipótesis? Elementos de un contraste: hipótesis, tipos de error, nivel de significación,

Más detalles

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN CURSO DE BIOESTADÍSTICA BÁSICA Y SPSS ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN Amaia Bilbao González Unidad de Investigación Hospital Universitario Basurto (OSI Bilbao-Basurto)

Más detalles

Tema 13: Contrastes No Paramétricos

Tema 13: Contrastes No Paramétricos Tema 13: Contrastes No Paramétricos Presentación y Objetivos. La validez de los métodos paramétricos depende de la validez de las suposiciones que se hacen sobre la naturaleza de los datos recogidos. La

Más detalles

Departamento de Medicina Preventiva y Salud Publica e Historia de la Ciencia. Universidad Complutense de Madrid. SPSS para windows.

Departamento de Medicina Preventiva y Salud Publica e Historia de la Ciencia. Universidad Complutense de Madrid. SPSS para windows. TEMA 9 DESCRIPTIVOS El submenú Estadísticos descriptivos está en el menú Analizar, y ofrece una serie de opciones para analizar datos de una forma sencilla. En este capítulo serán descritos estos procedimientos.

Más detalles

Análisis de la Varianza (ANOVA).

Análisis de la Varianza (ANOVA). { H0 : µ = µ 2 = = µ p Análisis de la Varianza (ANOVA) Planteamiento del problema Se desea contrastar si las medias de p poblaciones independientes son todas iguales o si existen diferencias entre al menos

Más detalles

U ED Tudela Diseños de investigación y análisis de datos - Tema 2

U ED Tudela Diseños de investigación y análisis de datos - Tema 2 Diseños de investigación y análisis de datos Preguntas de exámenes TEMA 2: CONTRASTE DE HIPÓTESIS EN DISEÑOS DE UNA MUESTRA 1.- El valor crítico se obtiene: A) A partir del nivel de significación adoptado.

Más detalles

Bioestadística y uso de software científico TEMA 7 COMPARACIONES DE MEDIAS: 3 O MÁS GRUPOS

Bioestadística y uso de software científico TEMA 7 COMPARACIONES DE MEDIAS: 3 O MÁS GRUPOS Bioestadística y uso de software científico TEMA 7 COMPARACIONES DE MEDIAS: 3 O MÁS GRUPOS Hasta ahora... Tema Variable dependiente Variable independiente Test Tema 4 Categórica Categórica χ 2, McNemar

Más detalles

Parte de las notas tomadas de: Prof. Edgar Acuña UNIVERSIDAD DE PUERTO RICO RECINTO UNIVERSITARIO DE MAYAGUEZ

Parte de las notas tomadas de: Prof. Edgar Acuña  UNIVERSIDAD DE PUERTO RICO RECINTO UNIVERSITARIO DE MAYAGUEZ Estadística stica No Paramétrica Parte de las notas tomadas de: Prof. Edgar Acuña http://math.uprm math.uprm/edu/~edgar UNIVERSIDAD DE PUERTO RICO RECINTO UNIVERSITARIO DE MAYAGUEZ METODOS ESTADISTICOS

Más detalles

CONTRASTES NO PARAMÉTRICOS

CONTRASTES NO PARAMÉTRICOS CONTRASTES NO PARAMÉTRICOS Contenidos Encuestas 75 Comprobación de supuestos 79 Pruebas no Paramétricas en el SPSS 80 Contrastes para 2 muestras independientes 81 Contrastes para varias muestras independientes

Más detalles

TEMA 9 EL ANÁLISIS BÁSICO DE LA INFORMACIÓN EN LA INVESTIGACION DE MERCADOS

TEMA 9 EL ANÁLISIS BÁSICO DE LA INFORMACIÓN EN LA INVESTIGACION DE MERCADOS TEMA 9 EL ANÁLISIS BÁSICO DE LA INFORMACIÓN EN LA INVESTIGACION DE MERCADOS 9.1. Análisis Descriptivo de la Información 9.2. La Tabulación Cruzada 9.3. Contraste de Hipótesis 9.1. Análisis Descriptivo

Más detalles

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS)

2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS) 2. EL DISEÑO UNIFACTORIAL (COMPARACION DE TRATAMIENTOS) La idea principal en este capitulo es el inicio a planear los diseño experimentales y su correspondiente análisis estadístico. En este caso iniciaremos

Más detalles

TEMA 2 Diseño de experimentos: modelos con varios factores

TEMA 2 Diseño de experimentos: modelos con varios factores TEMA 2 Diseño de experimentos: modelos con varios factores José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Análisis de Datos - Grado en Biología Esquema del tema Modelo bifactorial

Más detalles

Tema 8. Contrastes no paramétricos. 8.1 Introducción

Tema 8. Contrastes no paramétricos. 8.1 Introducción Índice 8 8.1 8.1 Introducción.......................................... 8.1 8.2 Bondad de ajuste....................................... 8.2 8.2.1 Test de Kolmogorov-Smirnov de bondad de ajuste................

Más detalles

13A. RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS PRUEBAS ESTADÍSTICAS DE CONFORMIDAD

13A. RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS PRUEBAS ESTADÍSTICAS DE CONFORMIDAD 13A. RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS PRUEBAS ESTADÍSTICAS DE CONFORMIDAD RELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS Las pruebas estadísticas para analizar la relación entre dos variables cuantitativas,

Más detalles

ANÁLISIS DE EXPERIMENTOS

ANÁLISIS DE EXPERIMENTOS ANÁLISIS DE EXPERIMENTOS Prof. Dr. José Perea Dpto. Producción Animal ANÁLISIS DE EXPERIMENTOS 1. Introducción 2. Comparación de dos medias 3. Comparación de más de dos medias 4. Pruebas post-hoc 5. ANCOVA

Más detalles

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II SOLUCIÓN PRACTICA 1 Problema 2-. Para una serie de investigaciones, en las que el tamaño de la muestra era el mismo, se ha calculado la t de Student con objeto

Más detalles

Supuestos y comparaciones múltiples

Supuestos y comparaciones múltiples Supuestos y comparaciones múltiples Diseño de Experimentos Pruebas estadísticas Pruebas de bondad de ajuste Prueba de hipótesis para probar si un conjunto de datos se puede asumir bajo una distribución

Más detalles

TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS

TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS TEMA II EL ANÁLISIS PRELIMINAR DE LOS DATOS LECTURA OBLIGATORIA Capítulo 2: Preparación del Archivo de datos. En Rial, A. y Varela, J. (2008). Estadística Práctica para la Investigación en Ciencias de

Más detalles

Matemática Aplicada y Estadística - Farmacia Soluciones del Primer Examen Parcial - Grupo 3

Matemática Aplicada y Estadística - Farmacia Soluciones del Primer Examen Parcial - Grupo 3 1. Se está haciendo un estudio de medicamentos diferentes que contienen un principio activo común La distribución de frecuencias se indica en la tabla que sigue: Cantidad de sustancia mg [10,20 [20,30

Más detalles

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN

CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN CONTRASTES NO PARAMÉTRICOS: ALEATORIEDAD Y LOCALIZACIÓN Antonio Morillas A. Morillas: C. no paramétricos (II) 1 1. Contrastes de aleatoriedad. Contraste de rachas. 2. Contrastes de localización 2.1 Contraste

Más detalles

GUIA DOCENTE ESTADISTICA

GUIA DOCENTE ESTADISTICA 1 GUIA DOCENTE ESTADISTICA 1- Datos de identificación Asignatura: Estadística Carácter: Formación básica Titulación: Psicología Ciclo: Grado Curso: 1 Cuatrimestre: Anual Departamento: Metodología de las

Más detalles

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua

ESTADÍSTICA. Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal. continua ESTADÍSTICA Población Individuo Muestra Muestreo Valor Dato Variable Cualitativa ordinal nominal Cuantitativa discreta continua DISTRIBUCIÓN DE FRECUENCIAS Frecuencia absoluta: fi Frecuencia relativa:

Más detalles

DISEÑO Y ANÁLISIS DE DATOS II. PRIMER PARCIAL. NOVIEMBRE 2016.

DISEÑO Y ANÁLISIS DE DATOS II. PRIMER PARCIAL. NOVIEMBRE 2016. DISEÑO Y ANÁLISIS DE DATOS II. PRIMER PARCIAL. NOVIEMBRE 016. Problema 1.- En una determinada investigación se estudia el efecto del tipo de ejercicio (, andar y ) y tipo de dieta (poca grasa y mucha grasa)

Más detalles

Estadística Inferencial. Resúmen

Estadística Inferencial. Resúmen Ofimega - Estadística inferencial - 1 Estadística Inferencial. Resúmen Métodos y técnicas que permiten inducir el comportamiento de una población. Muestreo o selección de la muestra: 1. Aleatorio simple:

Más detalles

Tema 4. Regresión lineal simple

Tema 4. Regresión lineal simple Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias

Más detalles

Preguntas más Frecuentes: Tema 3

Preguntas más Frecuentes: Tema 3 Preguntas más Frecuentes: Tema 3 Pulse sobre la pregunta para acceder directamente a la respuesta 1. Qué diferencia hay entre dispersión y variabilidad?. En el cálculo de la desviación media, cómo se calcula

Más detalles

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II

DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II DISEÑO Y ANÁLISIS DE DATOS EN PSICOLOGÍA II Se desea realizar una investigación que nos permita conocer la relación existente entre personalidad y tiempo de reacción. Como rasgo de personalidad se adopta

Más detalles

DESCRIPCIÓN DE DATOS POR MEDIO DE GRÁFICAS

DESCRIPCIÓN DE DATOS POR MEDIO DE GRÁFICAS ÍNDICE Introducción: Entrene su cerebro para la estadística... 1 La población y la muestra... 3 Estadísticas descriptivas e inferenciales... 4 Alcanzar el objetivo de estadísticas inferenciales: los pasos

Más detalles

ESTADISTICA AVANZADA. Análisis de la Variancia Anova One Way Kruskal-Wallis Bloques (Friedman)

ESTADISTICA AVANZADA. Análisis de la Variancia Anova One Way Kruskal-Wallis Bloques (Friedman) ESTADISTICA AVANZADA Análisis de la Variancia Anova One Way Kruskal-Wallis Bloques (Friedman) Factor Análisis de la Variancia El análisis de varianza One Way es una generalización de la Prueba t para mas

Más detalles

estadística aplicada a la gastronomía

estadística aplicada a la gastronomía estadística aplicada a la gastronomía CONTENIDO 4 6 14 18 30 objetivos unidad 1 unidad 2 unidad 3 unidad 4 OBJETIVOS GENERALES Ser capaz de reflexionar de forma crítica sobre los datos que se le presenten

Más detalles

Titulación: Curso académico: 15/16. DNI Curso: Grupo: Fecha: 27/05/2016

Titulación: Curso académico: 15/16. DNI Curso: Grupo: Fecha: 27/05/2016 CUESTIONES CORTAS 1. (1 PUNTO) Indica en cada caso, cual es la población, muestra y variable estadística. Clasifica la variable estadística de la manera más exhaustiva posible e indica que tipo de representación

Más detalles