Inferencia estadística III. Análisis de Correlación. La inferencia estadística también se puede aplicar para:
|
|
- Ángela Soriano Blázquez
- hace 7 años
- Vistas:
Transcripción
1 1 Inferencia estadística III La inferencia estadística también se puede aplicar para: 1. Conocer el grado de relación o asociación entre dos variables: análisis mediante el coeficiente de correlación lineal de Pearson. Para representar esta relación se puede utilizar una representación gráfica llamada diagrama de dispersión 2. Aplicar un modelo matemático y estimar el valor de una variable en función del valor de otra variable o de otras variables. Se trata del modelo de análisis de regresión simple en el primer caso y el modelo de análisis de regresión múltiple en el segundo caso (más de una variable) Análisis de Correlación En ocasiones nos puede interesar estudiar si existe o no algún tipo de relación entre dos variables aleatorias. El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables. No predice una variable a partir de otras sino que estudia el grado de asociación que hay entre las variables. En cambio, en el análisis de regresión se efectúan predicciones de una variable o más (variable predictora) sobre una variable criterio. El coeficiente de correlación lineal de Pearson (r) permite medir el grado de asociación entre dos variables y el sentido de su relación (positivo o negativo). Las variables tienen que ser cuantitativas y medidas en escala de intervalo. Sus valores oscilan desde -1 hasta 1. La hipótesis nula señala que r = 0 en la población ( = 0)y la hipótesis alternativa que r 0 ( 0). El coeficiente de correlación es un índice de tamaño del efecto pues indica la magnitud de la relación encontrada entre dos variables. Se puede dibujar un gráfico de dispersión o nube de puntos que nos orienta sobre la dirección de la relación (positiva o negativa) y sobre la magnitud. En concreto, respecto a la magnitud de la relación, cuanto más ancha sea la nube de puntos menor relación entre las variables. En cambio, cuanto más estrecha sea la nube de puntos mayor será la relación (correlación) entre las variables y más acertados los pronósticos de Y en función de X pues el error de estimación será menor. Una correlación lineal nula se representa por un conjunto de puntos donde resulta casi imposible dibujar una recta. En este caso, no puede establecerse ningún tipo de relación entre X e Y.
2 2 Correlación lineal directa: el valor de r se aproxima a +1, es decir, valores mayores de X se vinculan con valores mayores de Y. Cuando aumentan los valores de una variable también aumentan los valores de la otra variable Correlación lineal inversa: el valor de r se aproxima a -1, es decir, valores mayores de una variable se asocian con valores menores en la otra variable. Cuando aumentan los valores de una variable disminuyen los valores de la otra variable Conviene tener en cuenta dos cuestiones. Primero, a través de los resultados de un coeficiente de correlación no se puede hablar de relaciones de causalidad. Dos, un coeficiente de correlación de Pearson igual a cero indica que no hay ningún tipo de relación lineal entre las variables pero quizás podría haber relación no lineal. El coeficiente de correlación de Pearson se utiliza cuando se postula una relación lineal entre las variables. Por ejemplo, entre rendimiento y atención la relación es de tipo U invertida (no lineal) y ahí no sería adecuado efectuar un coeficiente de correlación de Pearson. Se puede realizar un contraste de hipótesis para comprobar si la correlación entre las variables va más allá del azar (con t de Student y n-2 grados de libertad). Y la interpretación del contraste de hipótesis mediante el coeficiente de correlación es la misma que se hace ante con la prueba de hipótesis tipo t de Student o F del análisis de la varianza. Se trata de comparar el valor de alfa planteado a priori con el valor p de probabilidad vinculado al valor del coeficiente de correlación obtenido. Desde el supuesto de la Hipótesis nula se trata de demostrar que la distribución muestral de correlaciones procedentes de una población caracterizada por una correlación igual a cero sigue una distribución de Student con N-2 grados de libertad. El numerado es la diferencia entre los valores de correlación (obtenido y el postulado por la hipótesis nula) y el denominador es la desviación típica. :
3 3 El valor de significación estadística vinculado al coeficiente de correlación señala la probabilidad de la relación dentro de un modelo que asume que la relación es sólo fruto del azar (modelo nulo). Un valor del coeficiente de correlación estadísticamente significativo señala que existe una relación entre las variables que se puede explicar por algo más que el azar pero el tamaño de su efecto debe de plantearse dentro de un contexto de investigación tal y como ya se señaló al hablar del tamaño del efecto anteriormente. Además, conviene tener en cuenta que el coeficiente de correlación está relacionado con el tamaño de la muestra y cuanto mayor la muestra mayor es el coeficiente de correlación. Por ello resulta más útil interpretar el valor del coeficiente de correlación como proporción de varianza explicada (el cuadrado del coeficiente de correlación) o proporción de varianza compartida entre las dos variables. Modelos de análisis de regresión El análisis de regresión se utiliza principalmente para modelar relaciones entre variables y para realizar pronósticos o predicciones de respuestas a partir de variables explicativas (predictores). Su uso es sobre todo para identificar variables explicativas y de este modo crear un modelo donde se seleccionan las variables que están vinculadas con la respuesta, descartando aquellas que no aportan información. Además, permite detectar interacciones entre las variables independientes que afectan a la variable dependiente o predicha. El modelo de regresión predice el valor de una variable dependiente (variable respuesta Y, predicha o explicada, variable criterio) basándose en el valor de al menos una variable independiente (variable explicativa X o variable predictora). -Se utiliza cuando la variable respuesta (dependiente) es de tipo numérico o cuantitativa. -Cuando la respuesta (variable dependiente) es de tipo dicotómico se utiliza el modelo de regresión logística. -En el modelo de regresión las variables explicativas (variables independientes) pueden ser numéricas y no numéricas (nominales tipo dicotómico como variables dummy 1 0). Si el modelo sólo tiene una variable independiente es un modelo de regresión simple y si consta de más de una variable independiente es un modelo de regresión múltiple. El modelo de regresión múltiple forma parte de las técnicas multivariadas. Con la regresión lineal es posible modelar la relación entre las variables predictoras y predicha, de manera que se puede determinar una expresión matemática que permita predecir la variable dependiente a partir de la o las variables independientes. La regresión lineal estima los coeficientes de la ecuación lineal que predice mejor el valor de la variable dependiente. Los modelos de regresión pertenecen al Modelo Lineal General como el ANOVA y conducen a los mismos resultados. Con el objetivo de que las inferencias realizadas con la muestra sobre la población sean correctas es necesario que los datos cumplan una serie de requisitos. Requisitos para poder aplicar el modelo de regresión: 1. Linealidad. Es necesario que en la población exista una relación lineal entre la variable respuesta y las variables explicativas.
4 4 2. Normalidad y equidistribución de los residuos. Si el valor del estadístico Durbin Watson está próximo a 2 entonces los residuos no están autocorrelacionados. Si su valor es 0 hay autocorrelación perfecta positiva. Si vale 4 existe autocorrelación perfecta negativa. 3. Colinealidad. Si dos variables independientes están muy relacionadas entre sí y se incluyen en el modelo es muy probable que ninguna de las dos resulte estadísticamente significativa. En cambio, si se incluye una sola de ellas sí podría resultar estadísticamente significativa. El investigador debe examinar los coeficientes para ver si se vuelven inestables al introducir una nueva variable. Si eso sucede entonces existe colinealidad entre la nueva variable y las anteriores. 4. Número de variables independientes. Como regla general al menos tienen que existir 20 observaciones por cada variable independiente que se considere a priori como teóricamente relevante. Si utilizamos menos observaciones por variable es muy probable que aumente el error de Tipo II, es decir, disminuya la potencia estadística del diseño de investigación. Bondad del ajuste Una vez ajustada la recta de regresión a la nube de observaciones es importante disponer de una medida que mida la bondad del ajuste realizado y que permita decidir si el ajuste lineal es suficiente o se deben buscar modelos alternativos. Como medida de bondad del ajuste se utiliza el coeficiente de determinación Por lo tanto, la bondad de ajuste del modelo se interpreta con el valor de R 2 (conocido como coeficiente de determinación). El coeficiente de determinación (R 2 ) indica la proporción del ajuste que se ha conseguido con el modelo lineal. Es decir, multiplicado por 100 señala el porcentaje de la variación de Y que se explica a través del modelo lineal que se ha estimado a través de las variables X (independientes). A mayor porcentaje mejor es nuestro modelo para predecir el comportamiento de la variable Y. Recordar que esto mismo es eta cuadrado en el modelo de ANOVA. El coeficiente de determinación (R 2 ) también se puede interpretar como la proporción de varianza explicada por la recta de regresión y su valor siempre estará entre 0 y 1. Cuanto más se acerque a uno mayor es la proporción de varianza explicada. Una cuestión, a medida que se introducen más variables independientes mayor será el valor de R 2. Para evitar este posible sesgo, es mejor interpretar R 2 corregida ya que su valor disminuye cuando se introducen variables independientes innecesarias. La matriz de correlaciones entre las variables nos ayuda para identificar correlaciones lineales entre las variables. La variable dependiente y las independientes pueden estar correlacionadas pero detectar correlaciones entre pares de variables independientes es un problema que afecta a la colinealidad y alguna de ellas deberá ser eliminada del modelo. El coeficiente de determinación (R 2 ) es el coeficiente de correlación al cuadrado. Es decir, representa el valor del tamaño del efecto y se corresponde con eta cuadrado ( 2 ) del ANOVA. R 2 indica la proporción de las variaciones explicadas por el modelo de regresión. Se trata de la varianza explicada por las variables explicativas o predictorasdel modelo lineal. 1-R 2 indica la proporción de las variaciones no explicadas por el modelo de regresión. Se trata de la varianza no explicada por las variables explicativas o predictoras, es decir, se atribuye al error.
5 5 Si la correlación fuese perfecta (1; -1) entonces el coeficiente de determinación sería 1. Es decir, todos los puntos estarían situados a lo largo de la recta de regresión y no habría error de estimación (diferencia entre puntuación obtenida y puntuación pronosticada por el modelo). El error típico de estimación es un concepto semejante al de la desviación típica (mide la dispersión alrededor de la media) y en el análisis de regresión mide la dispersión de los datos alrededor de la recta de regresión estimada. SPSS y modelos de regresión Inferencia estadística en el modelo de regresión Una vez calculada la recta de regresión y el ajuste que se ha conseguido, el siguiente paso es analizar si la regresión es válida y se puede utilizar para predecir. Para ello hay que contrastar si la correlación entre las variables predictoras y predicha es diferente de cero. Es decir, se trata de comprobar si la estimación del modelo de regresión es estadísticamente significativa de manera que las variables explicativas X son relevantes para explicar la variable predicha Y. La prueba estadística consiste en contrastar si la pendiente de la recta de regresión poblacional es diferente de cero de forma estadísticamente significativa (hipótesis nula plantea que la pendiente es cero). Si es así entonces se puede esperar que exista una correlación lineal entre las variables. Pasos a seguir: 1. Identificar X, Y 2. Construir el diagrama de dispersión 3. Estimar los parámetros del modelo (coeficientes) 4. Probar la significación estadística 5. Determinar la fuerza de la asociación entre las variables (R 2 ) 6. Análisis de los residuos Construir el diagrama de dispersión Cuando el coeficiente de correlación entre dos variables es alto se puede considerar que el ajuste de la recta de regresión también será alto. En aquellos casos en que el coeficiente de correlación lineal está cercano a +1 o a 1, tiene sentido considerar la ecuación de la recta que mejor se ajuste a la nube de puntos (recta de mínimos cuadrados). Uno de los principales usos de dicha recta será el de predecir o estimar los valores de Y que
6 6 obtendríamos para distintos valores de X. Estos conceptos quedarán representados en lo que se llama diagrama de dispersión: Modelo de regresión Una modelo de regresión se representa como: Donde: Y=b 0 + b 1 X 1 + +b n X n + e Y es la variable dependiente X representa a la/las variables independientes Los coeficientes del modelo b son calculados por el programa estadístico minimizando los residuos o errores. b 0 es la constante del modelo, b 1 es la estimación de la pendiente en X1. La constante del modelo (b 0 ) es el valor promedio de Y cuando el valor de X es cero. b 1 mide el cambio en el valor promedio de Y como resultado de un cambio unitario en X. E es el residual del modelo Por lo tanto, la puntuación predicha de Y por el modelo de regresión es: Ypredicha =b 0 + b 1 X 1 + +b n X n Y la diferencia entre la puntuación predicha y la obtenida es el error del modelo de regresión. El origen (o constante) de la ecuación de la recta de regresión (β 0 ) representa el valor predicho en Y cuando la variable X es igual a 0. El valor de la pendiente (β 1 ) representa la inclinación de la recta de regresión respecto al eje de abscisas, más concretamente, cuánto cambio se produce en Yˆ por cada unidad de incremento en X. En este sentido, β 1 representa un indicador de la relevancia del efecto que los cambios en X tienen sobre Y. Cuando para los coeficientes b se estiman valores no estadísticamente significativos (cercanos al cero) entonces la variable asociada se elimina del modelo. En caso contrario sí se considera la variable asociada de interés y se introduce en el modelo de regresión. Interpretación del modelo de regresión
7 7 La hipótesis nula señala que la variable respuesta o dependiente Y no está relacionada con las variables independientes o predictoras X. La significación estadística de los contrastes se realiza ejecutando un análisis de la varianza. El programa estadístico analiza la significación estadística de los coeficientes vinculados a las variables independientes. Si alguno de ellos no resulta estadísticamente significativo se puede eliminar del modelo para simplificar. Pero, muy importante, si al eliminar una variable cambian los coeficientes del resto de variables independientes, incluso podrían cambiar de signo, entonces muy posiblemente se trata de una variable de confundido (tercera variable que actúa como variable mediadora) que habrá que controlar en el diseño de investigación. En ese caso se debe dejar en el modelo aunque su coeficiente no sea estadísticamente significativo. Modelos de regresión múltiple El modelo de regresión múltiple permite estudiar la relación entre varias variables independientes (predictoras o explicativas) y otra variable dependiente (criterio, predicha o respuesta). Por ejemplo se puede estudiar el coeficiente intelectual como variable predicha utilizando el tamaño del cerebro y el sexo como variables predictoras independientes. Conviene siempre tener muy presente que los modelos de regresión (en general el modelo lineal general) no permiten hablar de causa-efecto. Eso es una cuestión que solamente el diseño de investigación y la metodología empleada pueden resolver. Nada que ver con la técnica estadística por sí sola. La relación entre las variables (colinealidad) también es otra cuestión que hay que tener en cuenta a la hora de interpretar un modelo de regresión. Ejecutar con el SPSS ANALIZAR---REGRESIÓN--LINEAL El método permite seleccionar el método de introducción de las variables independientes en el modelo de regresión:
8 8 Método Introducir. Procedimiento para la selección de variables en el que todas las variables de un bloque se introducen en un solo paso. Es el método por defecto. Es nuestra opción. Método pasos sucesivos. En cada paso se introduce la variable independiente que no se encuentre ya en la ecuación y que tenga la probabilidad para el estadístico razón F más pequeña, si esa probabilidad es suficientemente pequeña. Las variables ya introducidas en la ecuación de regresión se eliminan de ella si su probabilidad para F llega a ser suficientemente grande. El método termina cuando ya no hay más variables candidatas a ser incluidas o eliminadas. En Variable de selección se traslada una variable que limite el análisis a un subconjunto de casos que tengan un valor particular para esta variable. Con Regla se puede definir el subconjunto de casos que se emplearán para estimar el modelo de regresión. Por ejemplo si se define con regla que es 4 entonces solamente se incluirán en el análisis los casos para los que la variable de selección tenga un cuatro. Permite valores de cadena. En Etiquetas de caso se designa una variable para identificar los puntos de los gráficos. Para cada punto de un diagrama de dispersión podemos utilizar la herramienta de selección de puntos y mostrar el valor de la variable de etiquetas de casos correspondiente al caso seleccionado. Ponderación MCP. Permite obtener un modelo de mínimos cuadrados ponderados. Los puntos de los datos se ponderan por los inversos de sus varianzas. Esto significa que las observaciones con varianzas grandes tienen menor impacto en el análisis que las observaciones asociadas a varianzas pequeñas. -Guardar El botón Guardar nos permite guardar los valores pronosticados, los residuos y medidas relacionadas como nuevas variables que se añaden al archivo de datos de trabajo. El SPSS crea dos nuevas variables en el editor de datos RES_1 y PRE_1 que recogen los residuos y las predicciones respectivamente. Los valores pronosticados son los valores que el modelo de regresión predice para cada caso. Pueden ser: 1. No tipificados. Valor pronosticado por el modelo para la variable dependiente. 2. Tipificados. Cada valor pronosticado menos el valor predicho medio y dividido por la desviación típica de los valores pronosticados. Los valores pronosticados tipificados tienen una media de 0 y una desviación típica de 1. Los valores de los residuos es el valor de la variable dependiente menos el valor pronosticado por la regresión. Pueden ser de dos tipos: 1. No tipificados. Diferencia entre el valor observado y el valor pronosticado por el modelo. 2. Tipificados. El residuo dividido por una estimación de su error típico. Los residuos tipificados, que son conocidos también como los residuos de Pearson o residuos estandarizados, tienen una media de 0 y una desviación típica de 1. - Opciones El botón Opciones nos permite controlar los criterios por los que se eligen las variables para su inclusión o exclusión del modelo de regresión, suprimir el término constante y controlar la manipulación de los valores perdidos. Cuando accedemos a la opción de Estadísticos señalaremos las estimaciones de los coeficientes de regresión, los descriptivos, los estadísticos de ajuste del modelo, la prueba de Durbin-Watson y los diagnósticos de la colinealidad.
9 9 -Estimaciones. Señalan los coeficientes de regresión y medidas relacionadas. Los coeficientes no estandarizados (no tipificados) son los coeficientes de regresión parcial que definen la ecuación de regresión en puntuaciones directas. Los coeficientes estandarizados (β) son los coeficientes que definen la ecuación de regresión en puntuaciones típicas. Estos coeficientes estandarizados ayudan a valorar la importancia relativa de cada variable independiente dentro de la ecuación. Muestra las pruebas de significación de cada coeficiente, el estadístico de contrate (t) así como su nivel crítico (Sig.). Una significación estadística pequeña (menor al alfa) permite afirmar que el coeficiente es estadísticamente significativo. -Ajuste del modelo. Muestra el coeficiente de correlación múltiple (R múltiple), y su cuadrado (R 2, coeficiente de determinación, que expresa la proporción de varianza de la variable dependiente que está explicada por la variable o variables independientes), la R cuadrado corregida y el error típico de la estimación (desviación típica de los residuos). También, una tabla de ANOVA muestra las sumas de cuadrados, los grados de libertad, las medias cuadráticas, el valor del estadístico F y el nivel crítico (Sig.) de la F. -Cambio en R cuadrado. Nos muestra el cambio en el estadístico R 2 que se produce al añadir o eliminar una variable independiente. Si el cambio en R 2 asociado a una variable es grande, significa que esa variable es un buen predictor de la variable dependiente. -Descriptivos. Muestra las medias de las variables, las desviaciones típicas y la matriz de correlaciones con las probabilidades unilaterales. -Correlaciones parcial y semiparcial. Muestra las correlaciones de orden cero, semiparcial y parcial. Los valores del coeficiente de correlación van de -1 a 1. El signo del coeficiente indica la dirección de la relación y su valor absoluto indica la fuerza de la relación. Los valores mayores indican que la relación es más estrecha. La correlación parcial señala el grado de asociación lineal de cada variable independiente frente a la dependiente excluyendo el resto de las variables independientes. Permite observar si se cumple la hipótesis de linealidad. -Diagnósticos de colinealidad. Muestra las tolerancias para las variables individuales y una variedad de estadísticos para diagnosticar los problemas de colinealidad. La colinealidad (o multicolinealidad) es una situación no deseable en la que una de las variables independientes es una función lineal de otras variables independientes. Hay dos procedimientos: tolerancia y factor de inflación de la varianza (FIV). Valores bajos de tolerancia o altos para FIV supone que existe colinealidad. Conviene tener en cuenta que estos métodos no señalan las variables implicadas. Residuos. Este recuadro nos permite seleccionar una de las opciones:
10 10 -Durbin-Watson: Muestra la prueba de D-W para los residuos correlacionados serialmente. Éste estadístico oscila entre 0 y 4 y toma el valor 2 cuando los residuos son completamente independientes. Los valores mayores de 2 indican autocorrelación positiva y los menores de 2 autocorrelación negativa. Suele asumirse que los residuos son independientes si el estadístico de D-W está entre 1 5 y 2 5. También muestra estadísticos de resumen para los residuos y los valores pronosticados. -Diagnósticos por caso: Indica los valores por encima o por debajo de n veces alguna desviación típica. Es decir, señala los valores atípicos que producen un gran residuo. Gráficos Con el botón Gráficos obtenemos el cuadro de diálogo siguiente: En la lista fuente tenemos la variable dependiente (DEPENDT), los valores predichos estandarizados (ZPRED), los residuos estandarizados o tipificados (ZRESID), los residuos eliminando la puntuación del sujeto (DRESID) y los valores predichos ajustados (SDRESID). Si se representan los residuos tipificados frente a las predicciones podremos contrastar la linealidad y la igualdad de las varianzas. -Dispersión 1 de 1. Nos muestra los diagramas de dispersión que queramos de la lista de la izquierda, para cada par de variables, alternando anterior y siguiente. -Gráficos de residuos tipificados. En este recuadro podemos elegir uno de los gráficos: - Histograma: Crea un histograma de los residuos tipificados con una curva normal superpuesta. - Gráfico de probabilidad normal: Muestra un gráfico de probabilidad normal de los residuos tipificados. Se usa para comprobar la normalidad de los residuos tipificados. Si la variable se distribuye normalmente, los puntos representados forman una línea recta diagonal. -Generar todos los gráficos parciales. Genera todos los diagramas de dispersión de la variable dependiente con cada una de las variables independientes. En la ecuación tienen uqe haber al menos dos variables independientes para que se generen los gráficos parciales. Interpretación de los gráficos. 1. Representar los residuos tipificados o estudentizados (ZRESID o SRESID) frente a los valores pronosticados o predicciones tipificadas (ZPRED). El resultado tiene que ser una nube de puntos totalmente aleatoria. Es decir, no se observan tendencias ni patrones en la representación gráfica. Si se
11 11 cumple esta condición se acepta la hipótesis de linealidad y de varianza constante (homocedasticidad) de los errores. Dos supuestos del análisis de regresión. 2. Representar los valores observados frente a los predichos (DEPEND vs. ZPRED). Como resultado los valores se deben de alinear en la diagonal del cuadrante, si hubiera mucha dispersión o variabilidad entonces que no se cumple la hipótesis de homocedasticidad. Si la dispersión no es muy grande entonces existe igualdad de varianzas. Como la constante no resulta estadísticamente significativa la podemos eliminar de la ecuación de regresión. Los valores de beta (pendiente de la recta de regresión) positivos indican una relación directa entre X e Y. Los valores de beta negativos indican una relación inversa entre X e Y. La hipótesis nula en los contrastes de hipótesis de las pendientes señala que beta=0. Como las tres variables independientes tienen una pendiente estadísticamente significativa no se elimina ninguna variable del modelo. Si alguna de ellas no hubiese sido estadísticamente significativa se podría eliminar del modelo de regresión. Situación de análisis ideal : Tener variables independientes altamente correlacionadas con la variable dependiente pero con poca correlación entre sí. Cuando se tiene colinealidad o multicolinealidad (correlación entre tres o más variables independientes del modelo de regresión) entonces las variables están correlacionadas entre sí y se reduce el poder predictivo de las
12 12 variables independientes tomadas individualmente. En otras palabras, cuanto mayor la colinealidad menor es la varianza explicada por cada variable independiente Cómo detectar la colinealidad. Examinar la matriz de correlaciones entre las variables independientes. Si los valores son altos es probable que exista colinealidad. También se pueden observar los estadísticos de colinealidad. Existe multicolinealidad cuando: A) Valor de tolerancia (TOL) próximo a cero B) Factor de Inflación de la Varianza (FIV) superiores a 4 Simulación de la recta de regresión simple: Recta de regresión: Ypredicha= X DATOS 1. Sitúa los pares de datos X e Y en una tabla. 2. Representa la nube de puntos de esos pares de datos 3. Dibuja una recta que una esos puntos buscando que pase lo más cercana posible por cada uno de los puntos.
13 13 4. Ejecuta el análisis con el SPSS 5. Escribe la ecuación de regresión 6. Describe la bondad de ajuste 7. Describe si la recta de regresión es adecuada para definir la relación entre las variables. 8. Reflexiona sobre la colinealidad de los datos 9. Observa qué ocurre cuando uno de los puntos se separa y obtenemos una nueva recta de regresión. Representa con una línea los errores del modelo. Observa el error de estimación. 10. Ejecuta con esos nuevos datos de nuevo la recta de regresión con el SPSS
14 14
15 15
REGRESIÓN LINEAL CON SPSS
ESCUELA SUPERIOR DE INFORMÁTICA Prácticas de Estadística REGRESIÓN LINEAL CON SPSS 1.- INTRODUCCIÓN El análisis de regresión lineal es una técnica estadística utilizada para estudiar la relación entre
Más detallesCorrelación. El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r)
Correlación El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r) El coeficiente de correlación lineal de Pearson (r) permite medir el grado de asociación entre
Más detallesSESIÓN PRÁCTICA 7: REGRESION LINEAL SIMPLE PROBABILIDAD Y ESTADÍSTICA. PROF. Esther González Sánchez. Departamento de Informática y Sistemas
SESIÓN PRÁCTICA 7: REGRESION LINEAL SIMPLE PROBABILIDAD Y ESTADÍSTICA PROF. Esther González Sánchez Departamento de Informática y Sistemas Facultad de Informática Universidad de Las Palmas de Gran Canaria
Más detallesUniversidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia
Universidad de Chile DIPLOMA PREPARACIÓN Y EVALUACIÓN SOCIAL DE PROYECTOS Prof: Sara Arancibia Estudio de Caso: Estudio Morfología Coeficiente de Correlación Considere el archivo Estudio Morfología.sav.
Más detallesANÁLISIS CUANTITATIVO DE DATOS EN CIENCIAS SOCIALES CON EL SPSS (I) Tablas de contingencia y pruebas de asociación
ANÁLISIS CUANTITATIVO DE DATOS EN CIENCIAS SOCIALES CON EL SPSS (I) Tablas de contingencia y pruebas de asociación Francisca José Serrano Pastor Pedro A. Sánchez Rodríguez - Implica siempre a variables
Más detallesComparación de Líneas de Regresión
Comparación de Líneas de Regresión Resumen El procedimiento de Comparación de Líneas de Regresión esta diseñado para comparar líneas de regresión relacionas con Y y X en dos o mas niveles de un factor
Más detallesEstadística Avanzada y Análisis de Datos
1-1 Estadística Avanzada y Análisis de Datos Javier Gorgas y Nicolás Cardiel Curso 2006-2007 2007 Máster Interuniversitario de Astrofísica 1-2 Introducción En ciencia tenemos que tomar decisiones ( son
Más detallesTema 3. 3. Correlación. Correlación. Introducción
3-1 Introducción Tema 3 Correlación Coeficiente de correlación lineal de Pearson Coeficiente de correlación poblacional Contraste paramétrico clásico Transformación de Fisher Correlación bayesiana Test
Más detallesTRABAJO PRÁCTICO ESTADISTICA APLICADA (746)
UNIVERSIDAD NACIONAL ABIERTA VICERRECTORADO ACADEMICO AREA DE MATEMATICA TRABAJO PRÁCTICO ESTADISTICA APLICADA (746) JOSE GREGORIO SANCHEZ CASANOVA C.I. V-9223081 CARRERA: 610 SECCION Nº 1 SAN CRISTOBAL,
Más detallesDistribuciones bidimensionales. Regresión.
Temas de Estadística Práctica Antonio Roldán Martínez Proyecto http://www.hojamat.es/ Tema 5: Distribuciones bidimensionales. Regresión. Resumen teórico Resumen teórico de los principales conceptos estadísticos
Más detallesÍNDICE CAPITULO UNO CAPITULO DOS. Pág.
ÍNDICE CAPITULO UNO Pág. Concepto de Estadística 1 Objetivo 1 Diferencia entre estadísticas y estadística 1 Uso de la estadística 1 Divisiones de la estadística 1 1. Estadística Descriptiva 1 2. Estadística
Más detallesEstadística II Examen Final - Enero 2012. Responda a los siguientes ejercicios en los cuadernillos de la Universidad.
Estadística II Examen Final - Enero 2012 Responda a los siguientes ejercicios en los cuadernillos de la Universidad. No olvide poner su nombre y el número del grupo de clase en cada hoja. Indique claramente
Más detallesCALIDAD 1 JOSÉ MANUEL DOMENECH ROLDÁN PROFESOR DE ENSEÑANZA SECUNDARIA
CALIDAD 1 DIAGRAMA DE CORRELACIÓN-DISPERSIÓN QUÉ ES EL DIAGRAMA DE CORRELACIÓN-DISPERSIÓN? Es una herramienta gráfica que permite demostrar la relación existente entre dos clases de datos y cuantificar
Más detallesPráctica 2 Estadística Descriptiva
Práctica 2 Estadística Descriptiva Contenido Introducción...................................... 1 Tablas de frecuencias................................. 2 Medidas de centralización, dispersión y forma...................
Más detallesProblemas resueltos. Temas 10 y 11 11, 9, 12, 17, 8, 11, 9, 4, 5, 9, 14, 9, 17, 24, 19, 10, 17, 17, 8, 23, 8, 6, 14, 16, 6, 7, 15, 20, 14, 15.
Temas 10 y 11. Contrastes paramétricos de hipótesis. 1 Problemas resueltos. Temas 10 y 11 1- las puntuaciones en un test que mide la variable creatividad siguen, en la población general de adolescentes,
Más detallesRegresión lineal múltiple
Regresión lineal múltiple José Gabriel Palomo Sánchez gabriel.palomo@upm.es E.U.A.T. U.P.M. Julio de 2011 Índice I 1 El modelo de regresión lineal múltiple 1 El modelo de regresión múltiple. Introducción
Más detallesy = b 0 + b 1 x 1 + + b k x k
Las técnicas de Regresión lineal multiple parten de k+1 variables cuantitativas: La variable respuesta (y) Las variables explicativas (x 1,, x k ) Y tratan de explicar la y mediante una función lineal
Más detallesTeoría de la decisión Estadística
Conceptos básicos Unidad 7. Estimación de parámetros. Criterios para la estimación. Mínimos cuadrados. Regresión lineal simple. Ley de correlación. Intervalos de confianza. Distribuciones: t-student y
Más detallesESTADÍSTICA APLICADA. PRÁCTICAS CON SPSS. TEMA 2
ESTADÍSTICA APLICADA. PRÁCTICAS CON SPSS. TEMA 2 1.- ANÁLISIS DE LA VARIANZA CON UN FACTOR El análisis de la varianza estudia el efecto de una o varias variables independientes denominadas factores sobre
Más detallesUNIVERSIDAD DE ANTIOQUIA FACULTAD NACIONAL DE SALUD PÚBLICA Héctor Abad Gómez. Facultad Nacional de Salud Pública Héctor Abad Gómez
UNIVERSIDAD DE ANTIOQUIA FACULTAD NACIONAL DE SALUD PÚBLICA Héctor Abad Gómez Facultad Nacional de Salud Pública Héctor Abad Gómez La Regresión es una técnica estadística utilizadas para estimar (interpolar)
Más detallesCoeficiente de correlación semiparcial
Coeficiente de correlación semiparcial 1.- Introducción...1.- Correlación semiparcial... 3.- Contribución específica de las distintas variables al modelo de egresión Múltiple... 3 4.- Correlación semiparcial
Más detallesIntroducción a la estadística básica, el diseño de experimentos y la regresión
Introducción a la estadística básica, el diseño de experimentos y la regresión Objetivos José Gabriel Palomo Sánchez gabriel.palomo@upm.es E.U.A.T. U.P.M. Julio de 2011 Objetivo general Organizar el estudio
Más detallesFUNDAMENTOS METODOLÓGICOS EN PSICOLOGÍA ANÁLISIS BÁSICOS CON SPSS
UNIVERSIDAD DE SEVILLA FACULTAD DE PSICOLOGIA FUNDAMENTOS METODOLÓGICOS EN PSICOLOGÍA PROFESORES: Gutiérrez, Mayte Martínez, Rafael J. Moreno, Rafael ANÁLISIS BÁSICOS CON SPSS INDICE: Pág. 1. Estadísticos
Más detallesY = ßo + ß1X + ε. La función de regresión lineal simple es expresado como:
1 Regresión Lineal Simple Cuando la relación funcional entre las variables dependiente (Y) e independiente (X) es una línea recta, se tiene una regresión lineal simple, dada por la ecuación donde: Y =
Más detalles5 Relaciones entre variables.
ANÁLISIS EPLORATORIO DE DATOS 39 ANÁLISIS EPLORATORIO DE DATOS 40 Relaciones entre variables..1 Ejercicios. Ejercicio.1 En una muestra de 0 individuos se recogen datos sobre dos medidas antropométricas
Más detallesPRUEBAS PARA DOS MUESTRAS RELACIONADAS
PRUEBAS PARA DOS MUESTRAS RELACIONADAS Estos contrastes permiten comprobar si hay diferencias entre las distribuciones de dos poblaciones a partir de dos muestras dependientes o relacionadas; es decir,
Más detallesÍndice de contenidos. Primera parte Introducción al SPSS. 1. Estructura del SPSS
Índice de contenidos Primera parte Introducción al SPSS 1. Estructura del SPSS Tipos de ventanas SPSS Ventana designada versus ventana activa Cuadros de diálogo Subcuadros de diálogo Las barras de menús
Más detallesPráctica 1: Introducción a SPSS 1
Estadística Aplicada Curso 2010/2011 Diplomatura en Nutrición Humana y Dietética Práctica 1: Introducción a SPSS 1 Este programa estadístico está organizado en dos bloques: el editor de datos y el visor
Más detallesAnálisis Multivariado: Modelo Predictivo de Regresión Lineal Múltiple
Análisis Multivariado: Modelo Predictivo de Regresión Lineal Múltiple El modelo predictivo utilizado para realizar el presente análisis es el de regresión lineal múltiple (RLM) 1. Resulta plausible la
Más detallesAnálisis estadístico básico (I) Magdalena Cladera Munar mcladera@uib.es Departament d Economia Aplicada Universitat de les Illes Balears
Análisis estadístico básico (I) Magdalena Cladera Munar mcladera@uib.es Departament d Economia Aplicada Universitat de les Illes Balears CONTENIDOS Introducción a la inferencia estadística. Muestreo. Estimación
Más detallesCORRELACIÓN Y REGRESIÓN LINEAL
CORRELACIÓN Y REGREIÓN LINEAL 4.1 INTRODUCCIÓN Autor: Clara Laguna Después de estudiar cómo hay que organizar, representar gráficamente y analizar un conjunto de datos a partir de algunos parámetros, nos
Más detallesAnálisis de Datos CAPITULO 3: MEDIDAS DE VARIABILIDAD Y ASIMETRÍA
1. INTRODUCCIÓN En el tema 1 veíamos que la distribución de frecuencias tiene tres propiedades: tendencia central, variabilidad y asimetría. Las medidas de tendencia central las hemos visto en el tema
Más detallesCorrelaciones y Análisis de Regresión
5 Correlaciones y Análisis de Regresión n r xy = i=1 x iy i ns x y x 5. Correlaciones y Análisis de Regresión En el tema 1 estudiamos y estimamos el índice de correlación de Pearson con Excel. Si recordáis,
Más detallesSPSS Aplicación práctica: Base de datos del HATCO
Aplicación práctica: Base de datos del HATCO Datos: observaciones de variables obtenidos desde encuentas a clientes de un distribuidor industrial. Variables de interés en la aplicación: Percepciones de
Más detallesAnálisis de regresión y correlación lineal
Análisis de regresión y correlación lineal En las unidades anteriores hemos aplicado metodologías estadísticas para analizar la información de una variable desde una o más muestras utilizando las herramientas
Más detallesPRÁCTICA 3. REGRESIÓN LINEAL SIMPLE CON SPSS Ajuste de un modelo de regresión lineal simple Porcentaje de variabilidad explicado
PÁCTICA 3. EGESIÓN LINEAL SIMPLE CON SPSS 3.1. Gráfico de dispersión 3.2. Ajuste de un modelo de regresión lineal simple 3.3. Porcentaje de variabilidad explicado 3.4 Es adecuado este modelo para ajustar
Más detallesINTRODUCCIÓN DIAGRAMA DE DISPERSIÓN. Figura1
Capítulo 5 Análisis de regresión INTRODUCCIÓN OBJETIVO DE LA REGRESIÓN Determinar una función matemática sencilla que describa el comportamiento de una variable dadoslosvaloresdeotrauotrasvariables. DIAGRAMA
Más detallesTécnicas Cuantitativas para el Management y los Negocios I
Técnicas Cuantitativas para el Management y los Negocios I Licenciado en Administración Módulo II: ESTADÍSTICA INFERENCIAL Contenidos Módulo II Unidad 4. Probabilidad Conceptos básicos de probabilidad:
Más detallesDeterminación del tamaño muestral para calcular la significación del coeficiente de correlación lineal
Investigación: Determinación del tamaño muestral para calcular 1/5 Determinación del tamaño muestral para calcular la significación del coeficiente de correlación lineal Autores: Pértegas Día, S. spertega@canalejo.org,
Más detallesTema 1. Modelo de diseño de experimentos (un factor)
Tema 1. Modelo de diseño de experimentos (un factor) Estadística (CC. Ambientales). Profesora: Amparo Baíllo Tema 1: Diseño de experimentos (un factor) 1 Introducción El objetivo del Análisis de la Varianza
Más detallesTEMA 5 Inferencia no paramétrica. Guía docente:
TEMA 5 Inferencia no paramétrica Guía docente: Pruebas estadísticas unidireccionales (una cola) y pruebas estadísticas bidireccionales (dos colas) Antes de continuar con el tema nos vamos a detener en
Más detallesSnapStat: Análisis de Una Muestra
SnapStat: Análisis de Una Muestra Resumen La SnapStat Análisis de Una Muestra crea un resumen en una hoja de una sola columna de datos numéricos. Calcula estadísticas de resumen e intervalos de confianza,
Más detallesINFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016
INFORMACIÓN SOBRE LA PRUEBA DE ACCESO (PAU) A LA UNIVERSIDAD DE OVIEDO. CURSO 2015/2016 Materia: MATEMÁTICAS APLICADAS A LAS CIENCIAS SOCIALES II 1. COMENTARIOS Y/O ACOTACIONES RESPECTO AL TEMARIO EN RELACIÓN
Más detallesNociones de Estadística Descriptiva. Medidas de tendencia central y de variabilidad
Nociones de Estadística Descriptiva. Medidas de tendencia central y de variabilidad Introducción a la estadística descriptiva La estadística descriptiva ayuda a describir las características de grupos
Más detallesTema 11: Intervalos de confianza.
Tema 11: Intervalos de confianza. Presentación y Objetivos. En este tema se trata la estimación de parámetros por intervalos de confianza. Consiste en aproximar el valor de un parámetro desconocido por
Más detallesCORRELACION Y REGRESION
CORRELACION Y REGRESION En el siguiente apartado se presenta como calcular diferentes índices de correlación, así como la forma de modelar relaciones lineales mediante los procedimientos de regresión simple
Más detallesEJERCICIOS RESUELTOS TEMA 7
EJERCICIOS RESUELTOS TEMA 7 7.1. Seleccione la opción correcta: A) Hay toda una familia de distribuciones normales, cada una con su media y su desviación típica ; B) La media y la desviaciones típica de
Más detalles1. IDENTIFICACIÓN DE LA ASIGNATURA
UNIVERSIDAD DE SANTIAGO DE CHILE FACULTAD DE ADMINISTRACION Y ECONOMIA DEPARTAMENTO DE CONTABILIDAD Y AUDITORIA PROGRAMA DE ESTUDIO ESTADÍSTICA APLICADA II 1. IDENTIFICACIÓN DE LA ASIGNATURA 2. OBJETIVOS
Más detalles4. Medidas de tendencia central
4. Medidas de tendencia central A veces es conveniente reducir la información obtenida a un solo valor o a un número pequeño de valores, las denominadas medidas de tendencia central. Sea X una variable
Más detallesMULTICOLINEALIDAD EN LAS REGRESORAS Y NORMALIDAD DEL TÉRMINO DE ERROR EN LOS MODELOS DE REGRESIÓN LINEAL
MULTICOLINEALIDAD EN LAS REGRESORAS Y NORMALIDAD DEL TÉRMINO DE ERROR EN LOS MODELOS DE REGRESIÓN LINEAL Noviembre, 2011 Multicolinealidad El termino multicolinealidad se le atribuye originalmente a Frisch
Más detallesDefiniciones Diseño de Experimentos: Diseño del Experimento: Replicación o Repetición:
Definiciones Diseño de Experimentos: La experimentación es una técnica utilizada para encontrar el comportamiento de una variable a partir de diferentes combinaciones de factores o variables de entrada
Más detallesTEMA 11. LA FIABILIDAD DE LOS TESTS
TEMA 11. LA FIABILIDAD DE LOS TESTS 11.1. Métodos empíricos para estimar el coeficiente de Fiabilidad 11.2. Factores que afectan al Coeficiente de Fiabilidad 11.3. Interpretación del Coeficiente de Fiabilidad
Más detallesRelación entre variables: causalidad, correlación y regresión
Relación entre variables: causalidad, correlación y regresión Correlación entre variables. Modelos de regresión simple (lineal, cuadrática, cúbica). Modelos de regresión múltiple Blanca de la Fuente PID_00161061
Más detalles2.5. Asimetría y apuntamiento
2.5. ASIMETRÍA Y APUNTAMIENTO 59 variable Z = X x S (2.9) de media z = 0 y desviación típica S Z = 1, que denominamos variable tipificada. Esta nueva variable carece de unidades y permite hacer comparables
Más detalles7. De acuerdo con la gráfica siguiente, el contraste estadístico es:
1. Un investigador desea saber si los hombres y las mujeres difieren en flexibilidad cognitiva. Para ello, analiza los datos y obtienen los siguientes resultados. Satisfacen los datos el supuesto de homocedasticidad?
Más detalles1.- DATOS DE LA ASIGNATURA. Nombre de la asignatura: Probabilidad y Estadística. Carrera: Ingeniería en Materiales. Clave de la asignatura: MAM 0524
1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos: Probabilidad y Estadística Ingeniería en Materiales MAM 0524 3 2 8 2.- HISTORIA
Más detallesUNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA DIRECCIÓN GENERAL DE ASUNTOS ACADÉMICOS PROGRAMA DE ASIGNATURA I. DATOS DE IDENTIFICACIÓN.
1.- Unidad Académica: Facultad de Ingeniería UNIVERSIDAD AUTÓNOMA DE BAJA CALIFORNIA DIRECCIÓN GENERAL DE ASUNTOS ACADÉMICOS PROGRAMA DE ASIGNATURA I. DATOS DE IDENTIFICACIÓN 2.- Programa (s) de estudio:
Más detallesTécnicas de Inferencia Estadística II. Tema 3. Contrastes de bondad de ajuste
Técnicas de Inferencia Estadística II Tema 3. Contrastes de bondad de ajuste M. Concepción Ausín Universidad Carlos III de Madrid Grado en Estadística y Empresa Curso 2014/15 Contenidos 1. Introducción
Más detallesUNIVERSIDAD DE CIENCIAS EMPRESARIALES Y SOCIALES Facultad de Psicología y Ciencias Sociales. Licenciatura en Sociología. ESTADÍSTICA II (Plan 2008)
UNIVERSIDD DE CIENCIS EMPRESRILES Y SOCILES Facultad de Psicología y Ciencias Sociales ESTDÍSTIC II (Plan 2008) NÁLISIS DE REGRESIÓN N LINEL MÚLTIPLEM Prof. Titular Lic. Rubén José Rodríguez 21 de marzo
Más detalles4,2 + 0,67 Y c) R 2 = 0,49. 3.- En la estimación de un modelo de regresión lineal se ha obtenido:
INTRODUCCIÓN A LA ESTADÍSTICA. Relación 4: REGRESIÓN Y CORRELACIÓN 1.- En una población se ha procedido a realizar observaciones sobre un par de variables X e Y. Xi 4 5 4 5 6 5 6 6 Yi 1 1 3 3 3 4 4 ni
Más detalles6. ESTIMACIÓN DE PARÁMETROS
PROBABILIDAD Y ESTADÍSTICA Sesión 7 6. ESTIMACIÓN DE PARÁMETROS 6.1 Características el estimador 6. Estimación puntual 6..1 Métodos 6..1.1 Máxima verosimilitud 6..1. Momentos 6.3 Intervalo de confianza
Más detallesLos fenómenos psicológicos (por ejemplo, la comunicación verbal) se puede analizar desde distintos puntos de vista:
Los fenómenos psicológicos (por ejemplo, la comunicación verbal) se puede analizar desde distintos puntos de vista: (1) Cuáles son los procesos mentales que realizamos para construir una frase? (por ejemplo,
Más detallesUniversidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL
Universidad Técnica de Babahoyo CORRELACIÓN DE VARIABLES Y REGRESIÓN LINEAL OBJETIVO Analizar las Diferentes formas de Describir la Relación entre dos variables numéricas Trazar un diagrama de dispersión
Más detallesEstadística inferencial. Aplicación con el SPSS
Estadística inferencial. Aplicación con el SPSS Sabina Pérez Vicente Unidad de Calidad APES Hospital Costa del Sol sabina.perez.exts@juntadeandalucia.es Comparabilidad inicial de los grupos Se debe realizar
Más detallesMedidas de asociación
13 Medidas de asociación Irene Moral Peláez 13.1. Introducción Recurriremos a las medidas de asociación cuando queramos evaluar el grado de asociación entre dos variables y no únicamente comprobar analíticamente
Más detallesUnidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones
Unidad Temática 5 Estimación de parámetros: medias, varianzas y proporciones Responda verdadero o falso. Coloque una letra V a la izquierda del número del ítem si acepta la afirmación enunciada, o una
Más detallesREGRESIÓN LINEAL SIMPLE
REGRESIÓN LINEAL SIMPLE 1. El problema de la regresión lineal simple. Método de mínimos cuadrados 3. Coeficiente de regresión 4. Coeficiente de correlación lineal 5. El contraste de regresión 6. Inferencias
Más detallesDepartamento Administrativo Nacional de Estadística. Dirección de Censos y Demografía
Departamento Administrativo Nacional de Estadística Dirección de Censos y Demografía ESTIMACIÓN E INTERPRETACIÓN DEL COEFICIENTE DE VARIACIÓN DE LA ENCUESTA COCENSAL CENSO GENERAL 2005 - CGRAL Junio de
Más detallesweb: http://www.uv.es/friasnav/
LAS PRUEBAS PARAMÉTRICAS 1. Se conoce el modelo de distribución de la población objeto de estudio y se desconoce un número finito de parámetros de dicha distribución que hay que estimar con los datos de
Más detallesValidación de los métodos microbiológicos HERRAMIENTAS ESTADISTICAS. Bqca. QM Alicia I. Cuesta, Consultora Internacional de la FAO
Validación de los métodos microbiológicos HERRAMIENTAS ESTADISTICAS Bqca. QM Alicia I. Cuesta, Consultora Internacional de la FAO Objetivos de la clase Objetivos de la estadística. Concepto y parámetros
Más detalles3. Análisis univariable y bivariable
FUOC P01/71039/00748 36 Investigación descriptiva: análisis de información 3. Análisis univariable y bivariable 3.1. Análisis univariable Como se ha visto, los métodos de análisis univariable se utilizan
Más detallesDOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL
DOCUMENTO 3: DISTRIBUCIÓN DE PROBABILIDAD DE V. A. CONTINUA: LA DISTRIBUCIÓN NORMAL 3.1 INTRODUCCIÓN Como ya sabes, una distribución de probabilidad es un modelo matemático que nos ayuda a explicar los
Más detallesSegunda práctica de REGRESIÓN.
Segunda práctica de REGRESIÓN. DATOS: fichero practica regresión 2.sf3. Objetivo: El objetivo de esta práctica es interpretar una regresión y realizar correctamente la diagnosis. En la primera parte se
Más detallesCapítulo 2. Cómo utilizar la ayuda
Capítulo 2 Cómo utilizar la ayuda El SPSS cuenta con un completo sistema de ayuda al que puede accederse desde cualquier ventana o cuadro de diálogo. Este sistema de ayuda adopta varios formatos diferentes,
Más detallesANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE
ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE Jorge Fallas jfallas56@gmail.com 2010 1 Temario Introducción: correlación y regresión Supuestos del análisis Variación total de Y y variación explicada por
Más detallesPruebas de bondad de ajuste
Pruebas de bondad de ajuste Existen pruebas cuantitativas formales para determinar si el ajuste de una distribución paramétrica a un conjunto de datos es buena en algún sentido probabilístico. Objetivo:
Más detallesEstacionariedad Estacionariedad estacionariedad
Series de Tiempo Una serie de tiempo es una secuencia de datos puntuales medidos en tiempos sucesivos a intervalos de tiempo uniformes. La caracterización de las propiedades de una serie de tiempo se puede
Más detallesEl uso de la Técnica de Regresión Lineal Múltiple para la evaluación de la dotación de personal en el I.N.S.S.
El uso de la Técnica de Regresión Lineal Múltiple para la evaluación de la dotación de personal en el I.N.S.S. Establecimiento de un sistema de evaluación de la dotación de personal para las oficinas del
Más detallesUna población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.
Introducción a la Melilla Definición de La trata del recuento, ordenación y clasificación de los datos obtenidos por las observaciones, para poder hacer comparaciones y sacar conclusiones. Un estudio estadístico
Más detallesESTADÍSTICA DESCRIPTIVA Bosqueja o describe las diversas características de un conjunto de datos.
CONCEPTOS BÁSICOS DE ESTADÍSTICA INDICADOR DE LOGROS Aplicarás y explicarás la estadística descriptiva, utilizando la terminología básica, con seguridad e interés. Aplicarás y explicarás con interés y
Más detallesGRÁFICOS GRÁFICOS EN SPSS. Bakieva, M., González Such, J., Jornet, J., Terol, L.
GRÁFICOS GRÁFICOS EN SPSS GRÁFICOS EN SPSS. TIPOS DE GRÁFICOS. GRÁFICOS DE BARRAS; GRÁFICOS DE LÍNEAS; GRÁFICOS DE ÁREAS; GRÁFICOS DE SECTORES; GRÁFICOS DE MÁXIMOS Y MÍNIMOS; DIAGRAMA DE CAJA; DIAGRAMAS
Más detallesTema 5. Muestreo y distribuciones muestrales
Tema 5. Muestreo y distribuciones muestrales Contenidos Muestreo y muestras aleatorias simples La distribución de la media en el muestreo La distribución de la varianza muestral Lecturas recomendadas:
Más detallesProfesor: Hugo S. Salinas. Primer Semestre Tabla 1: Inteligencia y Rendimiento. X Y Figura 1: Inteligencia y Rendimiento.
UNIVERSIDAD DE ATACAMA FACULTAD DE CIENCIAS JURÍDICAS / CARRERA DE TRABAJO SOCIAL TECNOLOGÍA INFORMÁTICA I (SPSS) ESTADÍSTICA DESCRIPTIVA CON MÁS DE UNA VARIABLE Profesor: Hugo S. Salinas. Primer Semestre
Más detallesTEMA 4 Modelo de regresión múltiple
TEMA 4 Modelo de regresión múltiple José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Análisis de Datos - Grado en Biología Estructura de este tema Modelo de regresión múltiple.
Más detallesContenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra.
Contenidos mínimos 4B ESO. 1. Contenidos. Bloque I: Aritmética y álgebra. 1. Clasificar distintos tipos de números: naturales, enteros, racionales y reales. 2. Operar con números reales y aplicar las propiedades
Más detallesASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN
CURSO DE BIOESTADÍSTICA BÁSICA Y SPSS ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN Amaia Bilbao González Unidad de Investigación Hospital Universitario Basurto (OSI Bilbao-Basurto)
Más detallesPotencia estadística
Potencia estadística M. Dolores Frías http://www.uv.es/~friasnav 1 Potencia Estadística 1 - Es la probabilidad que tiene la prueba estadística para rechazar una hipótesis NULA FALSA Tiene un rango de 0
Más detallesEstadística II Tema 4. Regresión lineal simple. Curso 2010/11
Estadística II Tema 4. Regresión lineal simple Curso 010/11 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores
Más detallesINTERVALO DE CONFIANZA PARA LA PROPORCIÓN
INTERVALO DE CONFIANZA PARA LA PROPORCIÓN Si deseamos estimar la proporción p con que una determinada característica se da en una población, a partir de la proporción p' observada en una muestra de tamaño
Más detallesColegio Beato Carlos Manuel Rodríguez Departamento de Matemáticas. Mapa curricular Algebra I 8 vo grado
Colegio Beato Carlos Manuel Rodríguez Departamento de Matemáticas Mapa curricular Algebra I 8 vo grado Colegio Beato Carlos Manuel Rodríguez Mapa curricular Algebra I 8 vo grado periodo 11 al 22 de agosto
Más detallesAnálisis de Capabilidad (Porcentaje Defectuoso)
Análisis de Capabilidad (Porcentaje Defectuoso) STATGRAPHICS Rev. 9/4/2006 Este procedimiento esta diseñado para estimar el porcentaje de artículos defectuosos en una población basándose en muestra de
Más detallesESTADÍSTICA INFERENCIAL
ESTADÍSTICA INFERENCIAL ESTADÍSTICA INFERENCIAL 1 Sesión No. 9 Nombre: Pruebas de hipótesis referentes al valor de la media de la población Contextualización Los métodos estadísticos y las técnicas de
Más detallesEL TAMAÑO DE UNA MUESTRA EN UN ESTUDIO DE PREVALENCIA. Carlos Escalante Angulo Docente, Investigador, Facultad de Optometria
EL TAMAÑO DE UNA MUESTRA EN UN ESTUDIO DE PREVALENCIA Carlos Escalante Angulo Docente, Investigador, Facultad de Optometria RESUMÉN La investigación epidemiológica moderna se realiza por medio de muestras
Más detallesQué es? Primer paso Representación en un sistema de coordenadas. numéricos Cada punto muestra el valor de cada pareja de datos (X e Y)
Gráfico de dispersión Qué es? Primer paso Representación en un sistema de coordenadas cartesianas de los datos numéricos Cada punto muestra el valor de cada pareja de datos (X e Y) Gráfico de dispersión
Más detallesCarrera: SCC - 0424 4-2-10. Participantes. Representantes de la academia de sistemas y computación de los Institutos Tecnológicos.
1.- DATOS DE LA ASIGNATURA Nombre de la asignatura: Carrera: Clave de la asignatura: Horas teoría-horas práctica-créditos Probabilidad y estadística Ingeniería en Sistemas Computacionales SCC - 0424 4-2-10
Más detallesTEMA 4 FASE ESTADÍSTICO-ANALÍTICA: RECURSOS PARA EL ANÁLISIS DE DATOS
TEMA 4 FASE ESTADÍSTICO-ANALÍTICA: RECURSOS PARA EL ANÁLISIS DE DATOS FASES EN EL ANÁLISIS DE LOS DATOS DE UNA INVESTIGACIÓN SELECCIÓN HIPÓTESIS DE INVESTIGACIÓN Modelo de Análisis Técnica de Análisis
Más detallesCUADERNO DE EJERCICIOS
MÉTODOS DE INVESTIGACIÓN EN EDUCACIÓN Psicopedagogía Curso 2009/2010 CUADERNO DE EJERCICIOS Ejercicio nº 1 Aplicada una prueba de medición de la inteligencia a un grupo de 50 alumnos, las puntuaciones
Más detallesUNIVERSIDAD NACIONAL EXPERIMENTAL DE GUAYANA VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL
VICERRECTORADO ACADÉMICO COORDINACION DE PRE-GRADO PROYECTO DE CARRERA DE INGENIERIA INDUSTRIAL PROGRAMA: ESTADISTICA I CÓDIGO ASIGNATURA: 1215-311 PRE-REQUISITO: 1215209 SEMESTRE: 3 UNIDADES DE CRÉDITO:
Más detallesbloques SC Suma de Cuadrados k trat bloques
Análisis de un diseño en bloques aleatorios Cuando sólo hay dos tratamientos, el análisis de varianza de una vía equivale al test t de Student para muestras independientes. A su vez, el análisis de varianza
Más detallesLa Estadística Médica. Descripción General de la Bioestadística. Esquema de la presentación. La Bioestadística. Ejemplos de fuentes de Incertidumbre
Esquema de la presentación A. DESCRIPCIÓN GENERAL La Estadística Médica B. ORGANIZACIÓN DE LA ASIGNATURA 1. PROGRAMA 2. METODOLOGÍA DOCENTE 3. BIBLIOGRAFÍA 4. EVALUACIÓN 2 La Bioestadística Descripción
Más detalles