Regresión Lineal Múltiple

Documentos relacionados
Estadística para la Economía y la Gestión IN 3401 Clase 5

Capítulo 8. Selección de variables Introducción

Grado en Finanzas y Contabilidad

Edgar Acuna/ ESMA 6665 Lecc La SVD y Componentes Principales

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

UNA PROPUESTA PARA LA MAXIMIZACIÓN DE LA ESTADÍSTICA Q K

Regresión Lineal Múltiple

Capítulo 6 Multicolinealidad Luis Quintana Romero. Econometría Aplicada Utilizando R

TEMA 4 Modelo de regresión múltiple

Estadística para la Economía y la Gestión IN 3401

peso edad grasas Regresión lineal simple Los datos

Estructura de este tema. Tema 4 Regresión lineal simple. Ejemplo: consumo de vino y dolencias cardíacas. Frecuencias

Eigenvalores y eigenvectores

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas

Tema 6. Multicolinealidad. Contenido Multicolinealidad perfecta Multicolinealidad de grado alto

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño

Regresión ponderada y falta de ajuste

Práctica 3: Regresión simple con R

ANÁLISIS DE REGRESIÓN

Coeficiente de Correlación

Solución de sistemas lineales

6 Variables aleatorias independientes

Determinantes. Definiciones básicas sobre determinantes. José de Jesús Angel Angel.

Métodos Estadísticos Multivariados

Estimación del modelo lineal con dos variables

Econometria de Datos en Paneles

ESTADÍSTICA APLICADA. Tema 4: Regresión lineal simple

DESARROLLO DE ALGORITMOS PARA MODELOS DE ECUACIONES SIMULTANEAS EN ALTAS PRESTACIONES. Jose Juan López Espín Universidad Miguel Hernández

Cálculo numérico. Sistemas de ecuaciones lineales.

Matrices y determinantes

Relación de problemas. Álgebra lineal.

COMPONENTES PRINCIPALES

El Modelo de Regresión Lineal

Tema 4. Regresión lineal simple

Podemos pues formular los dos problemas anteriores en términos de matrices.

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Intervalos de confianza para los coeficientes de una regresión lineal.

Errores de especificación

Estadística Diplomado

Determinantes. Concepto de determinante A cada matriz cuadrada A se le asigna un número denominado determinante de A, denotado por A o por det (A).

ECONOMETRÍA I. Tema 3: El Modelo de Regresión Lineal Múltiple: estimación

Repaso de conceptos de álgebra lineal

Regresión lineal. Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística

Viernes 7 de octubre de 2005 Mate 3026 Estadística con Programación Prof. José N. Díaz Caraballo

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE

TEMA 2: Propiedades de los estimadores MCO

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

Determinantes. = a 11a 22 a 12 a 21 = ( 3) ( 5) ( 4) 7 = 15 ( 28) = = 43

Tema 8: Regresión y Correlación

Definición (matriz): Definición (dimensión de una matriz): Si una matriz tiene m renglones y n columnas se dice que es de dimensión m n.

RESUMEN DEL TEMA 7 VALORES Y VECTORES PROPIOS

Modelo lineal general (K variables)

Matrices, determinantes y sistemas de ecuaciones lineales

Es decir, det A = producto de diagonal principal producto de diagonal secundaria. Determinante de una matriz cuadrada de orden 3

Modelo de Análisis de la Covarianza. Introducción al modelo de Medidas Repetidas

Producto Escalar. AMD Grado en Ingeniería Informática. AMD Grado en Ingeniería Informática (UM) Producto Escalar 1 / 31

Determinantes. Determinante de orden uno. a 11 = a 11 5 = 5

Diagonalización. Tema Valores y vectores propios Planteamiento del problema Valores y vectores propios

Clase 7 Herramientas de Álgebra Lineal

Matrices, Determinantes y Sistemas Lineales.

Tema 10: Introducción a los problemas de Asociación y Correlación

Información sobre Gastos de Consumo Personal y Producto Interno Bruto ( ) en miles de millones de dólares de 1992.

Matemáticas II. Prácticas: Matrices y Determinantes ; C = 1 3 5

Estadística para la Economía y la Gestión IN 3401 Clase 5

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16

Correlación. El coeficiente de correlación mide la fuerza o el grado de asociación entre dos variables (r)

TEMA 3: PROPIEDADES DEL ESTIMADOR MCO

TEMA 3: Contrastes de Hipótesis en el MRL

Tema 5. Matrices y Determinantes

Guía de Matrices 2i, para i = j

Se trata de: Explicar el comportamiento de una variable dependiente ( Y ) en función de otras variables ( i ) 2 Investigar si las variables están asoc

Contenido. 2 Operatoria con matrices. 3 Determinantes. 4 Matrices elementales. 1 Definición y tipos de matrices

Formulación matricial del modelo lineal general

Primer examen parcial Geometría y Álgebra Lineal 1 2 de mayo de 2015 Respuestas y solución

Matrices y operaciones con Matrices.

Econometría Aplicada

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Regresión en Cadena. StatFolio de Ejemplo: ridge reg.sgp

Clase No. 13: Factorización QR MAT 251. Joaquín Peña (CIMAT) Métodos Numéricos (MAT 251) / 16

Estimación MCO, MCI en Modelos de Ecuaciones Simultáneas

Matrices 3. Matrices. Verónica Briceño V. agosto 2012

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN

ESTADÍSTICA. Tema 4 Regresión lineal simple

APUNTES DE ÁLGEBRA LINEAL TEMA 2. SISTEMAS DE ECUACIONES LINEALES

Modelo Lineal PRACTICA 5

Algebra de Matrices 1

1.2 Valores y vectores propios. Método de las potencias y Rayleigh.

ANEXO 1. CONCEPTOS BÁSICOS. Este anexo contiene información que complementa el entendimiento de la tesis presentada.

Definición de Correlación

2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...

Estimación de homografías

Regresión Lineal. Dra. Noemí L. Ruiz Limardo 2008 Derechos Reservados, Rev 2010

MATEMÁTICAS 2º BACH TECNOL. MATRICES. Profesor: Fernando Ureña Portero MATRICES

Anexo. Aplicaciones de los Determinantes

TEMA 7: MATRICES. OPERACIONES.

TEMA 1: MATRICES Y DETERMINANTES

TEMA 14 ESTADÍSTICA. Cuantitativa: si puede medirse y expresarse con números (es una variable), por ejemplo la talla de calzado.

APÉNDICE A. Algebra matricial

Econometría. Multicolinealidad

Análisis de Componentes Principales (ACP)

Transcripción:

Universidad Nacional Agraria La Molina 2011-2

Efectos de Diagnósticos de Dos predictores X 1 y X 2 son exactamente colineales si existe una relación lineal tal que C 1 X 1 + C 2 X 2 = C 0 para algunas constantes C 1, C 2 y C 0. Una medida comúnmente usada para detectar colinealidad es el coeciente de determinación. Se dice que X 1 y X 2 son colineales si R12 2 es bastante cercano a 1 ( ó 100 %). Cuando existen outliers esta medida no es completamente adecuada.

Efectos de Diagnósticos de La denición se extiende al caso cuando hay más de dos variables predictoras. Un conjunto de predictoras X 1, X 2,....X p son colineales si para constantes c 0, c 1,.....c p, la ecuación: c 1 X 1 + c 2 X 2 +... + c p X p = c 0

Efectos de Diagnósticos de De la ecuación anterior se desprende que cuando hay multicolinealidad una de las predictoras puede ser determinada de las otras, es decir: X k = (c 0 j k c j X j )/c k Si el coeciente de determinación R 2 k de la regresión de X k con las otras es cercano a 1 se puede concluir tentativamente que hay multicolinealidad.

Efectos de Efectos de Diagnósticos de Si consideramos el modelo de regresión lineal múltiple: Y = β 0 + β 1 X 1 + β 2 X 2 + + β p X p + e Se puede mostrar que la varianza del j ésimo coeciente de regresión estimado es: var( ˆβ j ) = σ 2 ( 1 1 R 2 j ) ( ) 1 S Xj S Xj

Efectos de Efectos de Diagnósticos de Donde Rj 2 es el coeciente de determinación de la regresión lineal de X j contra todas las demás variables predictoras. 1 La cantidad 1 R 2 es llamado el j ésimo Factor de inación j de la varianza o VIF j. Si Rj 2 es cercano a 1 entonces la varianza de ˆβ j aumentará grandemente.

Efectos de Efectos de Diagnósticos de El VIF representa el incremento en la varianza debido a la presencia de multicolinealidad. Una variable predictora con un VIF mayor de 10 puede causar multicolinealidad. Los VIF son los elementos que están en la diagonal de la matriz C 1, que es la inversa de la matriz de correlaciones C.

Pasos para detectar multicolinealidad Efectos de Diagnósticos de Se pueden seguir los siguientes pasos para detectar multicolinealidad Cotejar si hay coecientes de regresión con valores bien grandes o de signo opuesto a lo que se esperaba que ocurriera. Cotejar si la eliminación de una la o columna de la matriz X produce grandes cambios en el modelo ajustado.

Pasos para detectar multicolinealidad Efectos de Diagnósticos de Cotejar las correlaciones entre todas las parejas de variables predictoras para detectar las que son bastante altas. Si el VIF es grande, mayor que 10, entonces puede haber multicolinealidad.

Pasos para detectar multicolinealidad Efectos de Diagnósticos de Usar el número condición de la matriz correlación X X, la cual es de la forma 1 r 12 r 1p r 21 1 r 2p.... r p1 r p2 1 Donde r ij representa la correlación entre las variables X i y X j. La matriz X es obtenida restando a cada columna de X la media correspondiente y dividiendo luego entre la raíz de la suma de cuadrados corregida por la media de la misma columna.

Efectos de Diagnósticos de Básicamente hay dos propuestas: (Hoerl and Kennard, 1970) b) Componentes principales (Hotelling, 1965)

Regresión Ridge Efectos de Diagnósticos de Consideremos la suma de las varianzas de los coecientes estimados ˆβ, dada por E( ˆβ β) ( ˆβ β). E( ˆβ β) ( ˆβ β) = σ 2 p i=1 1 λ i Notar que si un valor propio es cercano a cero la suma de las varianzas se hace muy grande.

Regresión Ridge Efectos de Diagnósticos de La idea en regresión Ridge es encontrar un estimador β que aunque sea sesgado sea más corto que ˆβ, es decir β β < ˆβ ˆβ. Hoerl y Kennard, en 1970, propusieron el siguiente estimador: β = (X X + ki ) 1 X Y Donde el parámetro de encogimiento k (por lo general, 0 < k < 1) debe ser estimado de los datos tomados.

Regresión Ridge Efectos de Diagnósticos de Se puede mostrar que el estimador ridge se obtiene al resolver Min B (y XB) (y XB) Sujeto a que B 2 < k 2...(*) Cuando (*) se sustituye por B < k se obtiene el estimador Lasso.

Regresión Ridge Efectos de Diagnósticos de La fórmula anterior se puede usar con las variables predictoras y/o de respuesta en su forma original o en su forma estandarizadas. Tambien existen variantes de la formulación original de la regresión ridge, uno de ellos es considerar K como un vector o una matriz, a estos métodos se le llama regresión ridge generalizada.

Regresión Ridge Efectos de Diagnósticos de Hay varias propuestas acerca de la elección de k, pero lo que más se recomienda consiste en hacer un plot de los coecientes del modelo para varios valores de k (generalmente entre 0 y 1) este plot es llamado la Traza Ridge.

Efectos de Diagnósticos de Regresión Ridge Para elegir k hay que considerar los siguientes aspectos: 1 Que los valores de los coecientes de regresión se estabilizen. 2 Que los coefcientes de regresión que tenían un valor demasiado grande comienzen a tener valores razonables. 3 Que los coecientes de regresión que inicialmente tenían el signo equivocado cambien de signo.

Efectos de Diagnósticos de Componentes Principales para Regresión El objetivo del análisis por componentes principales es hacer una reducción de la información disponible. Es decir, la información contenida en p variables predictoras X = (X 1,..., X 2 ) puede ser reducida a Z = (Z 1,..., Z 2 ) con p < p. Las nuevas variables Z i s llamadas componentes principales no estan correlacionadas.

Componentes Principales para Regresión Efectos de Diagnósticos de Los componentes principales de un vector aleatorio X son los elementos de una transformación lineal ortogonal de X. Consideremos el modelo de regresión lineal múltiple: Y = β 0 + β 1 X 1 + β 2 X 2 + + β k X k + ɛ Estandarizemos todas las variables predictoras X j usando X j = x j x j. SXXj

Componentes Principales para Regresión Efectos de Diagnósticos de Sea X* la matriz obtenido usando las X j como columnas. Luego, X*'X* viene a ser la matriz de correlacion de las variables predictorias X j. Para determinar los componentes principales hay que hallar una matriz ortogonal V tal que Z=X*V. Para la cual Z'Z=(X*V)'(X*V)=V'X*'X*V=diag(λ 1,..., λ p ) y VV'=VV=I

Componentes Principales para Regresión Efectos de Diagnósticos de Los λ j son los valores propios de la matriz de correlación X 'X. Luego, la j-ésima componente principal Z j tiene desviación estándar igual a λ j y puede ser escrita como: Z j = ν j1 X 1 + ν j2 X 2 +... + ν jp X p Donde ν j1, ν j2,..., ν jp son los elementos de la j-ésima la de V.

Efectos de Diagnósticos de Componentes Principales para Regresión Elección del número de componentes principales: 1 Elegir el número de compnentes hasta donde se ha acumulado por lo menos 75 % de la proporción de los valores propios. 2 Elegir hasta la componente cuyo valor propio sea mayor que 1. Para esto se puede ayudar del Scree Plot. (Ver gura)

Componentes Principales para Regresión Efectos de Diagnósticos de