Licenciatura en Sociología Curso 2006/07 Técnicas de Investigación Social Medir la realidad social (4) La regresión (relación entre variables) El término REGRESIÓN fue introducido por GALTON en su libro Natural inheritance (1889) refiriéndose a la ley de la regresión universal : Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor. Regresión a la media Regresión a la media Su trabajo se centraba en la descripción de los rasgos físicos de los descendientes (una variable) a partir de los de sus padres (otra variable). PEARSON (un amigo suyo) realizó un estudio con más de 0 registros de grupos familiares observando una relación del tipo: Altura del hijo = 85cm + 0,5 altura del padre (aprox.) Conclusión: los padres muy altos tienen tendencia a tener hijos que heredan parte de esta altura, aunque tienen tendencia a acercarse (regresar) a la media. Lo mismo puede decirse de los padres muy bajos. Hoy en día el sentido de regresión es el de predicción de una medida basándonos en el conocimiento de otra. FRANCIS GALTON Estadístico y aventurero Fundador (con otros) de la estadística moderna para explicar las teorías de Darwin. Primo de Darwin
Estudio conjunto de dos variables A la derecha tenemos una posible manera de recoger los datos obtenido observando dos variables en varios individuos de una muestra. En cada fila tenemos los datos de un individuo Cada columna representa los valores que toma una variable sobre los mismos. Las individuos no se muestran en ningún orden particular. Altura en cm. 162 154 1 158 171 169 166 176 163... Peso en Kg. 61 78 62 66 54 84 68... Dichas observaciones pueden ser representadas en un diagrama de dispersión ( scatterplot ). En ellos, cada individuos es un punto cuyas coordenadas son los valores de las variables. Diagramas de dispersión o nube de puntos Tenemos las alturas y los pesos de individuos representados en un diagrama de dispersión. Pesa 76 kg. Pesa kg. Mide 161 cm. Mide 187 cm.
Relación entre variables Tenemos las alturas y los pesos de individuos representados en un diagrama de dispersión. Parece que el peso aumenta con la altura Predicción de una variable en función de otra Aparentemente el peso aumenta 10Kg por cada 10 cm de altura... o sea, el peso aumenta en una unidad por cada unidad de altura. Tenemos las alturas y los pesos de individuos representados en un diagrama de dispersión. 10 kg. 10 cm.
Cómo reconocer relación directa e inversa 3 2 2 1 1 Incorrelación Fuerte relación directa. Para valores de X por encima de la media tenemos valores de Y por encima y por debajo en proporciones similares. Incorrelación. 20 10 0 Cierta relación inversa Se llama relación directa o creciente entre X e Y cuando: Para los valores de X mayores que la media le corresponden valores de Y mayores también. Para los valores de X menores que la media le corresponden valores de Y menores también. Para los valores de X mayores que la media le corresponden valores de Y menores. Esto es relación inversa o decreciente. Cómo reconocer buena o mala relación 3 2 2 1 1 Poca relación Dado un valor de X no podemos decir gran cosa sobre Y. Mala relación. Independencia. o o o Fuerte relación directa. o o Conocido X sabemos que Y se mueve por una horquilla estrecha. Buena relación. 20 10 0 Cierta relación inversa Lo de horquilla estrecha hay que entenderlo con respecto a la dispersión que tiene la variable Y por si sola, cuando no se considera X.
Relación entre variables (Definición) Se considera que dos variables cuantitativas están relacionadas entre sí cuando los valores de una de ellas varían de forma sistemática con respecto a los valores homónimos de la otra; en otras palabras, si tenemos dos variables, A y B, existe relación entre ellas si al aumentar los valores de A también lo hacen los de B, o por el contrario si al aumentar los valores de A disminuyen los de B. Relación entre variables (Significado) La relación entre dos variables cuantitativas queda representada mediante la línea de mejor ajuste, que es la que esquematiza las condiciones de la nube de puntos y de la relación. Los componentes elementales de una línea de ajuste y por extensión de una relación entre dos variables son: La fuerza El sentido La forma
Relación entre variables (Definición) La fuerza mide el grado en que la línea representa a la nube de puntos. Si la nube es estrecha y alargada una línea recta representará adecuadamente a la nube de puntos y a la relación y por tanto ésta será fuerte. Si por el contrario, la nube de puntos tiene una tendencia elíptica o circular, una línea recta que trate de representar a la misma será consecuencia de una relación débil y poco representativa, con amplios residuos. El sentido de la relación se refiere a cómo varían los valores de B con respecto a A. Si al crecer los valores de la variable A lo hacen los de B, será una relación positiva (a valores bajos de A le corresponden valores bajos de B). Si al aumentar A, disminuye B, será una relación negativa (a valores bajos de A le corresponden valores altos de B y viceversa). La forma establece el tipo de línea a emplear para definir el mejor ajuste. Se pueden emplear tres tipos de líneas: una línea recta, una curva monotónica y una curva no monotónica. Relación entre variables (Definición) En el caso de usar una recta, se admite que existe una proporción entre la diferencia entre dos valores A y la diferencia entre dos valores de B. A ese factor de ajuste entre ambas series se le llama pendiente de la recta, y se asume que es constante a lo largo de toda la recta de ajuste. En el caso de usar una curva monotónica, ese factor de proporción entre las dos variables no es constante a lo largo de toda la recta, y por lo tanto la pendiente de la misma es variable en su recorrido. Se dice entonces que la línea de ajuste es no lineal monotónica, puesto que la línea se ha convertido en curva. Sin embargo, lo que no varía es el sentido de la relación: si la relación es positiva lo será a lo largo de todo el recorrido de la curva y si es negativa, será negativa en toda la curva. Por último, en el caso de usar una curva no monotónica varía tanto la pendiente de la curva como el sentido de la relación, que en unos sectores puede ser positiva (ascendente) y en otros negativa (descendente).
Relación entre variables no lineales Covarianza de dos variables X e Y La covarianza entre dos variables, S xy, nos indica si la posible relación entre dos variables es directa o inversa. S xy 1 = ( x n i i x)( y i y) Directa: S xy > 0 Directa: S xy < 0 Directa: S xy = 0 El signo de la covarianza nos dice si el aspecto de la nube de puntos es creciente o no, pero no nos dice nada sobre el grado de relación entre las variables.
Cálculo de la covarianza La covarianza entre dos variables Var 1 y Var 2 viene dada por: S xy 1 = ( x n i i x)( y i y) Donde x i indica el valor de la variable Var 1 para el individuo i, y i el valor de la variable Var 2 para el individuo i, x la media de Var 1 e y la media de Var2. indica Indicadores de correlación La correlación mide la relación lineal entre dos variables y su sentido (si es directo o inverso). Cuando la relación es perfectamente lineal dicho coeficiente vale 1 (ó -1). Cuando el coeficiente tiene un valor próximo a cero, o bien no existe relación entre las variables analizadas o bien dicha relación no es lineal. La correlación habitualmente denotada por r se puede estimar de dos maneras diferentes: El coeficiente de correlación de Pearson denotado por r es utilizado cuando ambas variables son cuantitativas siguiendo una distribución normal El coeficiente de correlación de Spearman denotado por rs se utiliza cuando alguna de las variables es ordinal o incluso dicotómica o para variables cuantitativas con muestras pequeñas.
Coeficiente de correlación lineal de Pearson El coeficiente de correlación lineal de Pearson de dos variables, r, nos indica si los puntos tienen una tendencia a disponerse alineadamente (excluyendo rectas horizontales y verticales). Tiene el mismo signo que Sxy por tanto de su signo obtenemos el que la posible relación sea directa o inversa. r es útil para determinar si hay relación lineal entre dos variables, pero no servirá para otro tipo de relaciones (cuadrática, logarítmica,...) r = S S x xy S y Coeficiente de correlación de Pearson El coeficiente de correlación de Pearson se obtiene calculando en primer lugar la covarianza entre las variables, que es una medida de asociación con dependencia de las unidades de medida de las variables. Después se divide por el producto de cada una de las desviaciones típicas de ambas variables, resultando una medida de asociación adimensional. r = S S x xy S y
Coeficiente de correlación lineal de Pearson Principio de isomorfía: sólo si la estructura de la hipótesis sustantiva supone una relación lineal, tendrá sentido utilizar el coeficiente de Pearson. Si la relación hipóteticamente se supone no lineal, no deberá utilizarse este coeficiente para contrastar la hipótesis. Si el coeficiente de Pearson calculado para la distribución conjunta informa que no existe relación, deberá tenerse muy presente de que la conclusión es que No hay relación lineal. Propiedades de r Es adimensional Sólo toma valores comprendidos entre [-1,1] Las variables son incorrelada si r = 0 Relación lineal perfecta entre dos variables se produce si r = +1 o r =-1 Excluimos los casos de puntos alineados horizontal o verticalmente. Cuanto más cerca esté r de +1 o -1 mejor será el grado de relación lineal. Siempre que no existan observaciones anómalas.. Relación inversa perfecta Variables incorreladas Relación directa casi perfecta -1 +1 0
Correlación de Sperman El coeficiente de correlación de Spearman es una técnica no paramétrica que se basa en los rangos en vez de en los valores originales de la variable. Cálculo de Rangos Para los datos de las variables Var 1 y Var 2 se calculan los rangos de los valores de éstas, a los que se denota por: R i (Var 1 ) y R i (Var 2 ), siendo R i (Var 1 ) los rangos de la variable Var 1 asociados al individuo i y R i (Var 2 ) los rangos de la variable Var 2 asociados al individuo i. Ejemplo: Var1 Var 2 R1(Var 1 ) Ri(Var 2 ) Máximo valor rango mayor Empate rangos 1 y 2 rango 1,5 10 17 10 15 22 7 8 6 7 7 1,5 5 1,5 4 6 3 Correlación de Sperman (valores intermedios) Cálculo de valores intermedios A continuación, se realizan los siguientes cálculos intermedios:
Coeficiente de Spearman Cálculo del coeficiente de correlación de Spearman. A partir de los coeficientes calculados con anterioridad, se calcula el coeficiente de correlación rs de Spearman dado por:
Entrenando el ojo: correlaciones positivas 3 2 2 1 1 r=0,1 1 120 110 r=0,4 110 r=0,6 r=0,8 Entrenando el ojo: casi perfectas y positivas r=0,9 r=0,99 r=1
Entrenando el ojo: correlaciones negativas 20 10 r=-0,5 0 20 10 r=-0,7 0 20 10 r=-0,95 0 20 10 r=-0,999 0 Preguntas más frecuentes Si r = 0 eso quiere decir que no las variables son independientes?. En la práctica, casi siempre sí, pero no tiene por qué ser cierto en todos los casos. Lo contrario si es cierto: Independencia implica incorrelación Me ha salido r =1 2 la relación es superlineal? Superqué? Eso es un error de cálculo. Siempre debe tomar un valor entre -1 y +1. A partir de qué valores se considera que hay buena relación lineal? Es difícil dar un valor concreto. Podemos decir que si r >0,7 hay buena relación lineal y que si r >0,4 hay cierta relación.
Otros coeficientes de correlación Cuando las variables en vez de ser numéricas son ordinales, se utilizan otro tipo de indicadores. Disponemos para estos casos de dos estadísticos, aunque no los usaremos en clase: Maurice George Kendall ρ ( ro ) de Spearman τ ( tau ) de Kendall Charles Edward Spearman