Modelos de suavizado, aditivos y mixtos

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Modelos de suavizado, aditivos y mixtos"

Transcripción

1 Carmen Armero 26 de mayo de 2011

2 Modelos aditivos Regresión polinómica

3 Modelos aditivos, I Un modelo aditivo es un modelo lineal con un predictor lineal definido a través de una suma de funciones suaves de las covariables. (Y X, U, V, W, Z,...) Normal(µ, σ 2 ) µ = E(Y X, U, V, W, Z,...) µ = Xβ + f 1 (U) + f 2 (V ) + f 3 (W, Z) +... siendo: Y : variable respuesta X: matriz de diseño correspondiente a las covariables que definen las componentes paramétricas del modelo. β: vector de los coeficientes de regresión. U, V, W, Z,...: covariables f j (.): funciones suaves de las covariables, j = 1, 2, 3,...

4 Modelos aditivos, II Ventajas: modelos muy fleibles que permiten modelizar, a través de funciones suaves, relaciones de tipo no lineal entre la variable respuesta y las predictoras. Precio que tenemos que pagar: Estudio y representación de funciones suaves. Procedimientos de selección del grado de suavización de las funciones consideradas.

5 Regresión polinómica univariantes A lo largo de casi todo el tema trabajaremos con la situación más sencilla: Una única covariable, X, que supondremos que toma valores en el intervalo [0, 1]. La distribución de la variable respuesta es (Y i X i ) N(f ( i ), σ 2 ), con lo que: Y i = f ( i ) + ɛ i, i = 1,..., n siendo f una función suave y ɛ i variables aleatorias i.i.d. distribuidas según N(0, σ 2 ).

6 Regresión polinómica Para poder estimar la función f de la forma más sencilla posible deberíamos poder representar f de forma que Y i = f ( i ) + ɛ i, i = 1,..., n se convirtiera en un modelo lineal. Y ésto se puede hacer eligiendo una base de funciones de dimensión q que genere un subespacio de funciones que incluya a f como elemento y que pueda epresarse como: q f () = β j b j () siendo β j el parámetro, desconocido, asociado al elemento j, b j (), de dicha base de funciones. De esa forma: q Y i = β j b j () + ɛ i, i = 1,..., n j=1 j=1 se convierte en un modelo lineal de dimensión q. La propuesta más sencilla: bases de polinomios.

7 Regresión polinómica Ejemplo 1: Una base de polinomios, I Supongamos que f es un polinomio de grado 4 de forma que el espacio de polinomios de grado 4 contiene a f. Una base de este subespacio es: b 1 () = 1 b 2 () = b 3 () = 2 b 4 () = 3 b 5 () = 4 Con lo que el modelo: Y i = q j=1 β j b j ( i ) + ɛ i, i = 1,..., n se convierte en el modelo lineal de dimensión q = 5: Y i = β 1 + β 2 i + β 3 2 i + β 4 3 i + β 5 4 i + ɛ i, i = 1,..., n

8 Ejemplo 1: Una base de polinomios, II f () = Regresión polinómica b1()= b2()= b3()= b4()= b5()= f()

9 Ejemplo 1: Una base de polinomios, III f () = Regresión polinómica b1()= b2()= b3()= b4()= b5()= f()

10 Regresión polinómica Bases de polinomios Las bases de polinomios son muy útiles en aquellas situaciones en las que el objetivo se centra en las propiedades de f en la vecindad de una localización concreta. Pero cuando el objetivo es estudiar la función f en un dominio amplio no son adecuadas debido a su falta de robustez. Tienen muchos problemas de multicolinealidad.

11 Ejemplo 2: Regresión polinómica Regresión polinómica Modelo: Y i = q j=1 β j j 1 i + ɛ i, i = 1,..., n, con q = 2, 6, 9, 10, 11, y y y y y y

12 Regresión polinómica Recapitulemos... Regresión polinómica? No, gracias (en general, claro). Eisten otro tipo de bases de funciones que funcionen mejor? Si, un montón. Vale, pues seguimos...

13 Regresión polinómica Splines Un spline es una curva definida a trozos mediante polinomios. Los splines se utilizan para aproimar curvas con formas complicadas. Tienen una representación sencilla y son fáciles de implementar. Tienen buenas propiedades matemáticas. Producen buenos resultados con polinomios de grado bajo evitando así las oscilaciones, indeseables en la mayoría de las aplicaciones, que se producen con polinomios de grado elevado.

14 Regresión polinómica Bases de splines Muchas bases de splines y de muy diferente tipo Las más populares: Bases de polinomios truncados. Bases de splines cúbicos. Bases de B-splines. Bases de thin plate splines. En este tema sólo trabajaremos splines cúbicos, concretamente con una base que definiremos en las siguientes transparencias.

15 Regresión polinómica Splines cúbicos, I Un spline cúbico es una curva construida a partir de trozos de polinomios de grado 3 que se ensamblan perfectamente de forma que la curva que forman es continua hasta la segunda derivada. A las abcisas de los puntos en los que se unen las distintas bases (los trozos) se les llama nodos. Spline cúbico generado por 11 bases (trozos) y 12 nodos (10 de ellos interiores).

16 Splines cúbicos II: por qué splines cúbicos? Regresión polinómica Los elementos de una base de splines cúbicos son polinomios de grado 3. Se utilizan mucho porque tienen muy buenas propiedades matemáticas: son los polinomios de grado más pequeño que tienen segundas derivadas contínuas y puntos de infleión. f () = ; f () = ; f () = 6 2 y y y

17 Splines cúbicos, III Regresión polinómica Una de las bases de splines cúbicos más utilizadas basadas en q 2 nodos interiores, j, j = 1, 2,..., q 2, es: b 1 () = 1 b 2 () = b j+2 () = R(, j ), j = 1,..., q 2 siendo : R(, z) = ( [ (z 1/2) 2 1/12 ] [ ( 1/2) 2 1/12 ] /4 ] z 1/2) 4 1/2( z 1/2) 2 + 7/240 /24 La dimensión de la base, q, está determinada por el número, q 2, de nodos interiores que seleccionamos. Los dos primeros elementos de la base b 1 () = 1 y b 2 () = no dependen de los nodos elegidos y...modelo de regresión lineal simple! Con esta base de splines definimos f a través de un modelo lineal con matriz de diseño X con q columnas cuya i-ésima fila es: X i = [1, i, R( i, 1 ), R( i, 2 ),..., R( i, q 2 )]

18 Splines cúbicos, IV: Ejemplo 3, I Regresión polinómica Base de splines cúbicos basada en 2 nodos interiores, 1 = 1/3 y 2 b 1 () = 1, b 2 () = b 3 () = R(, 1/3), b 4 () = R(, 2/3) = 2/3, es: rk rk

19 Regresión polinómica Splines cúbicos, V: Ejemplo 3, II Base de splines cúbicos basada en 3 nodos interiores, 1 = 1/4, 2 = 2/4 y 3 = 3/4, es: b 1 () = 1, b 2 () = b 3 () = R(, 1/4), b 4 () = R(, 2/4), b 5 () = R(, 3/4) rk rk rk

20 Splines cúbicos, VI: Ejemplo 3, III Regresión polinómica Base de splines cúbicos basada en 4 nodos interiores, 1 = 1/5, 2 = 2/5, 3 = 3/5 y 4 = 4/5, es: b 1 () = 1, b 2 () = b 3 () = R(, 1/5), b 4 () = R(, 2/5), b 5 () = R(, 3/5), b 6 () = R(, 4/5) rk rk rk rk

21 Ejemplo de juguete, I y Regresión polinómica Vamos a utilizar un ejemplo de jugueta para ilustrar los conceptos que estamos introduciendo. Datos: <-c(0.1,0.2,0.4,0.5,0.7,0.9) y<-c(2,4,5,3,2,6) plot(,y, pch=16, col=red, ylim=c(0,8))

22 Ejemplo de juguete, II Regresión polinómica Vamos a utilizar un modelo de regresión con splines cúbicos basados en los nodos interiores 1 = 1/3 y 2 = 2/3. Con lo que el modelo lineal será: Y = β 1 + β 2 + β 3 R(, 1 = 1/3) + β 4 R(, 2 = 2/3) + ɛ La epresión general de la matriz de diseño será: X = }{{} 6 4 Y operando: X = }{{} R(0.1, 1/3) R(0.1, 2/3) R(0.2, 1/3) R(0.2, 2/3) R(0.4, 1/3) R(0.4, 2/3) R(0.5, 1/3) R(0.5, 2/3) R(0.7, 1/3) R(0.7, 2/3) R(0.9, 1/3) R(0.9, 2/3), ,

23 Regresión polinómica Ejemplo de juguete, III mod.1 <- lm(y X-1), modelo de regresión ajustado summary(mod.1) Estimate Std. Error t value Pr(> t ) X Coefficients: X ** X * X ** Signif. codes: 0 *** ** 0.01 * Residual standard error: 0.32 on 2 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 4 and 2 DF, p-value:

24 Regresión polinómica y Ejemplo de juguete, IV La función de regresión estimada es:

25 Regresión polinómica Ejemplo: Volvo, I Ejemplo: Volvo 1 Se piensa que los coches con grandes cilindradas se deterioran menos rápidamente que los que tienen pequeñas cilindradas. En un estudio sobre el tema se analizaron 19 motores Volvo 19 y se obtuvieron los siguientes datos: tama~no<-c(1.42,1.58,1.78,1.99,1.99,1.99,2.13,2.13,2.13,2.32,2.32, 2.32,2.32,2.32, 2.43,2.43,2.78,2.98,2.98) desgaste<-c(4.0,4.2,2.5,2.6,2.8,2.4,3.2,2.4,2.6,4.8,2.9,3.8,3.0, 2.7,3.1,3.3,3.0,2.8,1.7) Modelo: desgaste i = f (tamaño i ) + ɛ i, ɛ i i.i.d. N(0, σ 2 ) i = 1,..., n = 19 y vamos a modelizar f a través de una base de splines cúbicos. Trabajamos ahora con el script SVolvo1 para ilustrar el tratamiento del problema a través de un modelo de regresión con splines. Utilizaremos dos bases de distinta dimensión para entender un poco más el papel de los distintos elementos en el modelo.

26 Control del grado de suavización, I La elección del grado de suavización está controlada por la dimensión de la base de splines. Este es un tema importante. Necesitamos introducir criterios que nos permitan seleccionar de forma adecuada el grado de suavización del modelo. Antes de empezar a estudiar este tema vamos a recordar el método de mínimos cuadrados...que introdujimos en la asignatura de modelos lineales. La siguiente transparencia es un quasicopy-paste de la transparencia del tema 1 de la asignatura de Modelos lineales para el modelo de regresión lineal simple en la que introducíamos el método de mínimos cuadrados.

27 Control del grado de suavización, II Quasi-copy-paste de Estimación: método de mínimos cuadrados, I A partir de la información proporcionada por n observaciones emparejadas {(X i, Y i ), i = 1,..., n} el método de los mínimos cuadrados considera la diferencia entre cada observación Y i de la variable respuesta y su correspondiente media, β 1 + β 2 X i, a través del estadístico: Q(β 1, β 2 ) = n i=1 (Y i (β 1 + β 2 X i )) 2 y elige como estimadores de β 1 y β 2 aquellos valores que minimizan el valor de Q(β 1, β 2 ). Dicho proceso de minimización (función de dos variables) proporciona como estimadores de ambos parámetros aquellos valores que cumplen las ecuaciones: n i=1 Y i = nβ 1 + β 2 n i=1 X i n i=1 X i Y i = β 1 n i=1 X i + β 2 n i=1 X 2 i que son conocidas como ecuaciones normales.

28 Control del grado de suavización, III Pero nosotros ahora no estamos trabajando con el modelo de regresión lineal simple sino con un modelo de regresión lineal múltiple en el que la matriz de diseño está definida por los elementos de una base de splines. Con lo que ahora deberíamos modificar la descripción anterior como: A partir de la información proporcionada por n observaciones emparejadas {(X i, Y i ), i = 1,..., n} el método de los mínimos cuadrados considera la diferencia entre cada observación Y i de la variable respuesta y su correspondiente media (o función de regresión), β 1 b 1 ( i ) + β 2 b 2 ( i ) β q b q( i ), a través del estadístico: Q(β 1,..., β q) = n i=1 (Y i (β 1 b 1 ( i ) + β 2 b 2 ( i ) β q b q( i )) 2 y elige como estimadores de β 1,..., β q, aquellos valores que minimizan el valor de Q(β 1,..., β q). Para aligerar un poco la notación a partir de ahora la epresión anterior la representaremos como: Q(β) = Y Xβ 2 siendo β = (β 1, β 2,..., β q) T, Y = (Y 1,..., Y n) T y X la matriz de diseño definida por la base de splines cuyas fila i-ésima es de la forma: X i = [b 1 ( i ), b 2 ( i ),..., b q( i )]

29 Control del grado de suavización: Criterio 1 Criterio 1: Reducir la base de splines. Una posibilidad que tenemos para elegir el grado de suavización es a través de contrastes de hipótesis en los que se valoren modelos con mayor o menor grado de suavización, es decir, con mayor o menor número de nodos. Pero esta propuesta es problemática porque, por ejemplo, un modelo basado en q 1 nodos igualmente espaciados no está encajado en un modelo basado en q nodos. Modelo 1: Y = β 1 + β 2 + β 3 R(, 1 = 1/2) + ɛ Modelo 2: Y = β 1 + β 2 + β 3 R(, 1 = 1/3) + β 4 R(, 1 = 2/3) + ɛ Podríamos pensar en un proceso de selección de variables backward, empezando con un grid amplio de nodos e ir eliminando nodos. No es un proceso recomendable porque el modelo resultante es, en general, bastante pobre ya que el ajuse en estos modelos depende fuertemente de la localización elegida para los nodos. Por lo tanto el criterio 1 NO parece adecuado.

30 Control del grado de suavización: Splines penalizados, I. Criterio 2: Utilizar splines penalizados. Mantenemos fija la base de splines y controlamos el grado de suavización del modelo añadiendo una penalización a la función objetivo del método de mínimos cuadrados: Q(β) = Y Xβ 2 Q(β) = Y Xβ 2 + λ Penalización λ es el parámetro de suavización. Cuando λ = 0 estamos en el caso particular en el que no hay penalización y a medida que λ aumenta aumentamos la intensidad de la penalización. Cuando λ tiende a el modelo se convierte prácticamente en un modelo de regresión lineal simple. Penalización = 1 0 f () d(). Cual sería la penalización si f () = β 1 + β 2?, y si f () = β 1 + β 2 + β β 4 4?, Modelos muy montañosos-inestables, modelos muy penalizados.

31 Control del grado de suavización: Splines penalizados, II. Penalización = 1 0 f () d(). Felizmente puede epresarse como: Penalización = 1 0 f () d() = β T S β siendo S una matriz de orden q q con coeficientes conocidos que dependen de la base elegida y a la que se conoce como matriz de penalización. Mínimos cuadrados penalizados: Q(β) = Y Xβ 2 +λ β T S β Estimador penalizado de β: ˆβ penal = (X T X + λs) 1 X T Y Matriz de proyección del modelo penalizado: H penal = X(X T X + λs) 1 X T Estimación de la función de regresión: X ˆβ penal = H penal Y

32 Control del grado de suavización: Splines penalizados, III. Modelo lineal: Y = Xβ + ɛ siendo X la matriz de diseño definida por una base de splines. Comparamos: no penalizados Q(β) = Y Xβ 2 ˆβ = (X T X) 1 X T Y H = X(X T X) 1 X T penalizados Q(β) = Y Xβ 2 +λ β T S β ˆβpenal = (X T X + λs) 1 X T Y H penal = X(X T X + λs) 1 X T siendo λ el parámetro de suavizado y S la matriz de penalización.

33 Control del grado de suavización: Splines penalizados, IV. Modelo: Y = Xβ + ɛ siendo X la matriz de diseño definida por una base de splines. La epresión de la matriz de penalización, S, depende de la base de splines que consideremos. Si trabajamos con la base de splines cúbica de dimensión q introducida anteriormente, la matriz de penalización S es de orden q q y se define como: Las dos primeras columnas y filas están todas ellas formadas por ceros (no hay penalización al término paramétrico de la base). S j+2,k+2 = R(j, k ), j, k = 1,..., q 2

34 Ejemplo de juguete, V Estamos trabajando un modelo de regresión con splines cúbicos basados en los nodos interiores 1 = 1/3 y 2 = 2/3. Datos: <-c(0.1,0.2,0.4,0.5,0.7,0.9) y<-c(2,4,5,3,2,6) Vamos a calcular la matriz de penalización S. Se trata de una matriz de orden 4 4 con elementos S = }{{} 4 4 Y operando: S = }{{} R(1/3, 1/3) R(1/3, 2/3) 0 0 R(2/3, 1/3) R(3/3, 2/3), ,

35 Control del grado de suavización: Splines penalizados, V. El modelo de regresión lineal penalizado Y = Xβ + ɛ, siendo X la matriz de diseño definida por una base de splines y penalización λβ T Sβ. Es equivalente al modelo de splines de regresión lineal no penalizados siendo: Y = X β + ɛ, Y = (Y, 0, 0,..., 0) T vector de dimensión (n + q) 1, }{{} q [ ] X X = B matriz de diseño de orden (n + q) q λ B es una matriz que cumple B T B = S y que puede obtenerse a través de la descomposición de Cholesky. λ es el parámetro de penalización.

36 Ejemplo de juguete, VI El modelo de regresión penalizado que hemos escrito en la transparencia Ejemplo de juguete, V es equivalente al modelo de splines de regresesión no penalizados: Y = X β + ɛ, siendo: Y }{{} 10 1 = Y 1 Y 2 Y 3 Y 4 Y 5 Y , X = }{{} R(0.1, 1/3) R(0.1, 2/3) R(0.2, 1/3) R(0.2, 2/3) R(0.4, 1/3) R(0.4, 2/3) R(0.5, 1/3) R(0.5, 2/3) R(0.7, 1/3) R(0.7, 2/3) R(0.9, 1/3) R(0.9, 2/3) λ B(1/3, 1/3) λ B(1/3, 2/3) λ B(2/3, 1/3) λ B(3/3, 2/3)

37 Ejemplo de juguete, VII El modelo de regresión penalizado que hemos escrito en la transparencia Ejemplo de juguete, V es equivalente al modelo de regresión con splines: Y = X β + ɛ, siendo: Y }{{} 10 1 = Y 1 Y 2 Y 3 Y 4 Y 5 Y , X = }{{} λ λ λ λ ,

38 Ejemplo de juguete, VIII y y y y y y El modelo de regresión penalizado del Ejemplo de juguete con λ = 0.1, 0.01, 0.001, , ,

39 Control del grado de suavización: Splines penalizados, V, otra vez. El modelo de regresión lineal penalizado Y = Xβ + ɛ, siendo X la matriz de diseño definida por una base de splines y penalización λβ T Sβ. Es equivalente al modelo de regresión lineal no penalizado siendo: Y = X β + ɛ, Y = (Y, 0, 0,..., 0) T vector de dimensión (n + q) 1, }{{} q [ ] X X = B matriz de diseño de orden (n + q) q λ B una matriz que cumple B T B = S y que puede obtenerse a través de la descomposición de Cholesky. λ el parámetro de suavización.

40 , I El parámetro de suavización, λ, juega un papel muy importante en el grado de suavización del modelo. Es un parámetro desconocido que deberemos estimar adecuadamente. Recordamos que si λ es grande el modelo suaviza los datos en eceso mientras que si λ es pequeño los datos estarán muy poco suavizados. En ambos casos, la función de regresión estimada, que representaremos ahora como ˆf (), estará lejos de la verdadera función f (). Un criterio sensato para estimar el parámetro de penalización sería elegir aquel valor de λ que minimizase: M = 1 n n i=1 (f ( i ) ˆf ( i )) 2, pero como f () es desconocida no podemos utilizarlo. Pero esta es una buena idea que puede aprovecharse, y a partir de ella, introduciendo algunas hipótesis y aproimaciones, se obtiene el estadístico general de validación cruzada: V g = n n i=1 (y i ˆf ( i )) 2 traza(i H) que elige como mejor estimador de el valor que minimiza V g, siendo H la matriz de proyección del modelo.

41 y Ejemplo de juguete, IX Estimación del parámetro de suavizado, ˆλ= (ojo) Estadístico GVC y estimación de la función de regresión del modelo de splines penalizados. Estadístico GVC V i

42 Ejemplo: Volvo, II. Ejemplo: Volvo 2 Se piensa que los coches de grandes cilindradas se deterioran menos ràpidamente que los que tienen pequeñas cilindradas. En un estudio sobre el tema se analizaron 19 motores Volvo 19 y se obtuvieron los siguientes datos: tama~no<-c(1.42,1.58,1.78,1.99,1.99,1.99,2.13,2.13,2.13,2.32,2.32, 2.32,2.32,2.32, 2.43,2.43,2.78,2.98,2.98) desgaste<-c(4.0,4.2,2.5,2.6,2.8,2.4,3.2,2.4,2.6,4.8,2.9,3.8,3.0, 2.7,3.1,3.3,3.0,2.8,1.7) Modelo: desgaste i = f (tamaño i ) + ɛ i, ɛ i i.i.d. N(0, σ 2 ) i = 1,..., n = 19 y vamos a modelizar f a través de una base de splines cúbicos. Trabajamos ahora con el script SVolvo2 para ilustrar el tratamiento del problema a través de un modelo de regresión con splines penalizados. Utilizaremos dos bases de distinta dimensión para entender un poco más el papel de los distintos elementos en el modelo.

43 , I Para no hacerlo todo mucho más complicado a nivel formal suponemos que el modelo aditivo con varias variables eplicativas incluye sólo dos variables predictoras. En concreto, estudiaremos el comportamiento de una variable respuesta Y a través de las variables predictoras X y Z según el modelo de estructura aditiva: Y i = f 1 ( i ) + f 2 (z i ) + ɛ i siendo: f 1 y f 2 son funciones suaves. ɛ i : variables i.i.d con distribución N(0, σ 2 ) Suponemos por simplicidad que todos los valores de X y Z pertenecen al intervalo [0, 1] Nota 1 sobre la hipótesis de efectos aditivos de X y Z: f 1 () + f 2 (z) es un caso especial, bastante restrictivo, de la función general f (, z). Nota 2: como el modelo contiene más de una función aparece un problema de identificabilidad ya que, por ejemplo, si añadimos una constante a f 1 y sustraemos la misma constante a f 2 el modelo no cambia.

44 Modelos aditivos con variables predictoras, II Despues de resolver el problema de la identificabilidad del mpdelo, el modelo aditivo con varias variables eplicativas puede estudiarse a través del mismo tipo de análisis que hemos aprendido en el tema anterior cuando trabajábamos con una única variable predictiva: Representación de las funciones suaves a través de bases de funciones, en particular, splines. Estimación a través del método de mínimos cuadrados penalizados. Selección del grado de suavización del modelo a través de procedimientos de validación cruzada. El siguiente material profundiza en estos temas.

45 Modelos aditivos con variables predictoras, III Utilizamos dos variables eplicativas, X y Z, para analizar una variable respuesta Y a través del modelo aditivo: Y i = f 1 ( i ) + f 2 (z i ) + ɛ i siendo (Y i X 1i, X 2i ) N(f 1 ( i ) + f 2 (z i ), σ 2 ), i = 1,..., n. Podemos representar cada una de estas dos funciones a través de una base de splines penalizados. Si utilizamos la base cúbica que conocemos del tema anterior: q 1 2 f 1 () = δ 1 + δ 2 + j=1 q 2 2 f 2 (z) = γ 1 + γ 2 z + j=1 δ j+2 R(, j ) γ j+2 R(z, z j ) siendo γ j y δ j los parámetros desconocidos de la función f 1 y f 2 y j y z j los nodos interiores para cada una de las dos bases consideradas.

46 Modelos aditivos con variables predictoras, IV El problema de la falta de identificabilidad en el modelo aditivo se genera porque δ 1 y γ 1 están confundidos. La forma más sencilla de resolver este problema es considerar que uno de ellos es cero, por ejemplo γ 1. Con esta condición el modelo aditivo anterior puede escribirse como un modelo lineal Y = X β + ɛ con: Matriz de diseño X de orden n (q 1 + q 2 1) cuya fila i-ésima es de la forma: X i = [1, i, R( i, 1 ), R( i, 2 ),..., R( i, q 1 2 ), z i, R(z i, z 1 ),..., R( i, q 2 2 )] Vector de parámetros β = (δ 1, δ 2,..., δ q1, γ 2, γ 3,..., γ q2 ) T La suavización de cada una de las funciones f 1 y f 2 viene dada por la penalización: 1 1 f 1 ()2 d = β T S 1 β, f 1 ()2 d = β T S 2 β 0 0 siendo S 1 y S 2 matrices de orden (q 1 + q 2 1) (q 1 + q 2 1) cuyos elementos son todos cero ecepto para S 1 (j + 2, k + 2) = R( j, k ), j, k = 1,..., q 1 2 y S 2 (j + q 1 + 1, k + q 1 + 1) = R(z j, z k ), j, k = 1,..., q 2 2

47 Modelos aditivos con variables predictoras, IV La estimación de los parámetros del modelo, β, la obtenemos minimizando: Y X β 2 + λ 1 β T S 1 β + λ 2 β T S 2 β siendo λ 1 y λ 2 los parámetros de suavizado que controlan el peso que debe asignarse para que f 1 y f 2 sean suaves, en relación al objetivo general que es acercarse lo más posible a los datos. Por el momento supondremos que ambos parámetros son conocidos. Si definimos S = λ 1 S 1 + λ 1 S 1 el modelo penalizado anterior es equivalente al modelo lineal no penalizado: Y = X β + ɛ, siendo: Y = (Y, 0, 0,..., 0) T vector de dimensión (n + q 1 + q 2 1) 1, }{{} q 1 +q 2 1 [ ] X X = matriz de diseño de orden (n + q B 1 + q 2 1) (q 1 + q 2 1) B una matriz de orden (q 1 + q 2 1) (q 1 + q 2 1) que cumple B T B = S y que puede obtenerse a través de la descomposición de Cholesky.

48 Ejemplo: Arbres, I Los siguientes datos corresponden a observaciones de la altura, circunferencia y volumen de 31 cerezos que han sido talados previamente. Circun Altura Volumen Circun Altura Volumen

49 Ejemplo: Arbres, II Modelo: Volumen i = f 1 (Circun i ) + f 2 (Altura i ) + ɛ i, ɛ i i.i.d. N(0, σ 2 i = 1,..., n = 31 Trabajamos ahora con el script Arbres para para ilustrar el tratamiento del problema a través de un modelo de regresión con splines penalizados. El documento con todo el script y los resultados tambien se llama Arbres pero está en formato doc.

Modelos de suavizado, aditivos y mixtos

Modelos de suavizado, aditivos y mixtos Carmen Armero 1 de junio de 2011 Introducción Introducción Modelos lineales, LM Modelos aditivos, AM Modelos lineales generalizados, GLM GAM I Un modelo lineal generalizado (GAM) es un modelo lineal generalizado

Más detalles

peso edad grasas Regresión lineal simple Los datos

peso edad grasas Regresión lineal simple Los datos Regresión lineal simple Los datos Los datos del fichero EdadPesoGrasas.txt corresponden a tres variables medidas en 25 individuos: edad, peso y cantidad de grasas en sangre. Para leer el fichero de datos

Más detalles

Regresión múltiple. Demostraciones. Elisa Mª Molanes López

Regresión múltiple. Demostraciones. Elisa Mª Molanes López Regresión múltiple Demostraciones Elisa Mª Molanes López El modelo de regresión múltiple El modelo que se plantea en regresión múltiple es el siguiente: y i = β 0 + β 1 x 1i + β 2 x 2i +...+ β k x ki +

Más detalles

Modelos lineales. Tema 1: Modelo de regresión lineal simple. 6 de febrero de Carmen Armero

Modelos lineales. Tema 1: Modelo de regresión lineal simple. 6 de febrero de Carmen Armero Carmen Armero 6 de febrero de 2012 Introducción Un poco de historia Definición y propiedades Mínimos cuadrados Máxima verosimilitud Ejemplo: Masa muscular y edad 1.I La edad es uno de los factores determinantes

Más detalles

Práctica 3: Regresión simple con R

Práctica 3: Regresión simple con R Estadística II Curso 2010/2011 Licenciatura en Matemáticas Práctica 3: Regresión simple con R 1. El fichero de datos Vamos a trabajar con el fichero salinity que se encuentra en el paquete boot. Para cargar

Más detalles

Métodos Estadísticos Multivariados

Métodos Estadísticos Multivariados Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre

Más detalles

Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez

Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez Felipe José Bravo Márquez 15 de noviembre de 2013 Introducción Un modelo de regresión se usa para modelar la relación de una variable dependiente y numérica con n variables independientes x 1, x 2,...,

Más detalles

TEMA 4 Modelo de regresión múltiple

TEMA 4 Modelo de regresión múltiple TEMA 4 Modelo de regresión múltiple José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Análisis de Datos - Grado en Biología Estructura de este tema Modelo de regresión múltiple.

Más detalles

Estructura de este tema. Tema 4 Regresión lineal simple. Ejemplo: consumo de vino y dolencias cardíacas. Frecuencias

Estructura de este tema. Tema 4 Regresión lineal simple. Ejemplo: consumo de vino y dolencias cardíacas. Frecuencias Estructura de este tema Tema 4 Regresión lineal simple José R. Berrendero Departamento de Matemáticas Universidad utónoma de Madrid Planteamiento del problema. Ejemplos Recta de regresión de mínimos cuadrados

Más detalles

Estadística Diplomado

Estadística Diplomado Diplomado HRB UNAM 1 / 25 1 Estimación Puntual Momentos Máxima Verosimiltud Propiedades 2 / 25 1 Estimación Puntual Momentos Máxima Verosimiltud Propiedades 2 Estimación por Intervalos Cantidades Pivotales

Más detalles

ANALISIS FACTORIAL. Jorge Galbiati R.

ANALISIS FACTORIAL. Jorge Galbiati R. ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores

Más detalles

Ajuste de Regresión Lineal Simple

Ajuste de Regresión Lineal Simple Ajuste de Regresión Lineal Simple Hugo Alberto Brango García 1 1 Universidad de Córdoba Estadística II Mayo de 2014 Análisis de Regresión Mayo de 2014 1 / 33 Supuestos sobre los residuales del modelo Normalidad

Más detalles

Modelos de suavizado, aditivos y mixtos

Modelos de suavizado, aditivos y mixtos Carmen Armero 13 de junio de 11 Libreria mgcv Libreria mgcv mgcv es una librería de R diseñada para trabajar con modelos aditivos generalizados, incluyendo modelos mixtos aditivos generalizados, GAMM.

Más detalles

Regresión ponderada y falta de ajuste

Regresión ponderada y falta de ajuste Capítulo 4 Regresión ponderada y falta de ajuste 4.1. Introducción En este capítulo se presentan la regresión ponderada y la prueba de falta de ajuste como un conjunto adicional de herramientas usadas

Más detalles

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas

Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Estimación MC2E, MVIL en Modelos de Ecuaciones Simultáneas Economía Aplicada III (UPV/EHU) OCW 2013 Contents 1 Mínimos Cuadrados en 2 Etapas 2 Mínimos Cuadrados en 2 Etapas El método de Mínimos Cuadrados

Más detalles

Regresión Lineal Múltiple

Regresión Lineal Múltiple Universidad Nacional Agraria La Molina 2011-2 Efectos de Diagnósticos de Dos predictores X 1 y X 2 son exactamente colineales si existe una relación lineal tal que C 1 X 1 + C 2 X 2 = C 0 para algunas

Más detalles

Interpolación. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Interpolación 1 / 35

Interpolación. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Interpolación 1 / 35 Interpolación Escuela de Ingeniería Informática de Oviedo (Dpto. de Matemáticas-UniOvi) Computación Numérica Interpolación 1 / 35 Contenidos 1 Introducción 2 Interpolación de Taylor Cálculo del polinomio

Más detalles

Subspacios Vectoriales

Subspacios Vectoriales Subspacios Vectoriales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Subspacios Vectoriales 1 / 25 Objetivos Al finalizar este tema tendrás que: Saber si un subconjunto es

Más detalles

TEMA 2 Diseño de experimentos: modelos con varios factores

TEMA 2 Diseño de experimentos: modelos con varios factores TEMA 2 Diseño de experimentos: modelos con varios factores José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Análisis de Datos - Grado en Biología Esquema del tema Modelo bifactorial

Más detalles

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos econométricos dinámicos uniecuacionales ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES Modelos econométricos dinámicos uniecuacionales Introducción: Hemos estudiado modelos de tipo: y t = φ 0 + p i=1 φ iy t i + q j=0 θ jɛ t j y t = β x t +

Más detalles

INTRODUCCIÓN A REGRESIÓN LINEAL. Simple y Múltiple

INTRODUCCIÓN A REGRESIÓN LINEAL. Simple y Múltiple 1 INTRODUCCIÓN A REGRESIÓN LINEAL Simple y Múltiple 2 Introducción Aprendizaje Supervisado Predicción: estimar una función f(x) de forma que y = f(x) Donde Y puede ser: Número real: Regresión Categorías:

Más detalles

Errores de especificación

Errores de especificación CAPíTULO 5 Errores de especificación Estrictamente hablando, un error de especificación es el incumplimiento de cualquiera de los supuestos básicos del modelo lineal general. En un sentido más laxo, esta

Más detalles

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR

Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.

Más detalles

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10

Estadística II Tema 4. Regresión lineal simple. Curso 2009/10 Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores

Más detalles

Aplicaciones Lineales. Diagonalización de matrices.

Aplicaciones Lineales. Diagonalización de matrices. Tema 2 Aplicaciones Lineales. Diagonalización de matrices. 2.1. Definiciones y propiedades Nota 2.1.1. En este tema trabajaremos con los Espacios Vectoriales R n y R m definidos sobre el cuerpo R. Definición

Más detalles

Estadística para la Economía y la Gestión IN 3401 Clase 5

Estadística para la Economía y la Gestión IN 3401 Clase 5 Estadística para la Economía y la Gestión IN 3401 Clase 5 Problemas con los Datos 9 de junio de 2010 1 Multicolinealidad Multicolinealidad Exacta y Multicolinealidad Aproximada Detección de Multicolinealidad

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

ANÁLISIS DE REGRESIÓN

ANÁLISIS DE REGRESIÓN ANÁLISIS DE REGRESIÓN INTRODUCCIÓN Francis Galtón DEFINICIÓN Análisis de Regresión Es una técnica estadística que se usa para investigar y modelar la relación entre variables. Respuesta Independiente Y

Más detalles

Descomposición en forma canónica de Jordan (Segunda versión)

Descomposición en forma canónica de Jordan (Segunda versión) Descomposición en forma canónica de Jordan (Segunda versión) Francisco J. Bravo S. 1 de septiembre de 211 En esta guía se presentan los resultados necesarios para poder construir la forma de Jordan sin

Más detalles

Método de las Superficies de Respuesta

Método de las Superficies de Respuesta 7 Método de las Superficies de Respuesta En este capítulo se analizará en qué consiste la Metodología de Superficies de Respuesta, su representación gráfica, el procedimiento a seguir hasta encontrar un

Más detalles

Los estimadores mínimo cuadráticos bajo los supuestos clásicos

Los estimadores mínimo cuadráticos bajo los supuestos clásicos Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni MCO bajo los supuestos clásicos 1

Más detalles

Grado en Finanzas y Contabilidad

Grado en Finanzas y Contabilidad Econometría Grado en Finanzas y Contabilidad Apuntes basados en el libro Introduction to Econometrics: A modern Approach de Wooldridge 3.1 Colinealidad Exacta 3.2 Los efectos de la multicolinealidad Del

Más detalles

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA

1 Introducción. 2 Modelo. Hipótesis del modelo MODELO DE REGRESIÓN LOGÍSTICA MODELO DE REGRESIÓN LOGÍSTICA Introducción A grandes rasgos, el objetivo de la regresión logística se puede describir de la siguiente forma: Supongamos que los individuos de una población pueden clasificarse

Más detalles

ESPACIOS VECTORIALES Y APLICACIONES LINEALES

ESPACIOS VECTORIALES Y APLICACIONES LINEALES Departamento de Matemática Aplicada II E.E.I. ÁLGEBRA Y ESTADÍSTICA Boletín n o (010-011 ESPACIOS VECTORIALES Y APLICACIONES LINEALES 1. En el espacio vectorial ordinario R 4 estudiar cuáles de los siguientes

Más detalles

Tema 2: Estadística Bivariante Unidad 1: Correlación y Regresión

Tema 2: Estadística Bivariante Unidad 1: Correlación y Regresión Estadística Tema 2: Estadística Bivariante Unidad 1: Correlación y Regresión Área de Estadística e Investigación Operativa Licesio J. Rodríguez-Aragón Octubre 2010 Contenidos...............................................................

Más detalles

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes.

Una forma fácil de recordar esta suma (regla de Sarrus): Primero vamos a estudiar algunas propiedades de los determinantes. Una forma fácil de recordar esta suma (regla de Sarrus): Ejemplos: Tarea: realizar al menos tres ejercicios de cálculo de determinantes de matrices de 2x2 y otros tres de 3x3. PARA DETERMINANTES DE MATRICES

Más detalles

Determinantes. = a 11a 22 a 12 a 21 = ( 3) ( 5) ( 4) 7 = 15 ( 28) = = 43

Determinantes. = a 11a 22 a 12 a 21 = ( 3) ( 5) ( 4) 7 = 15 ( 28) = = 43 Determinante de una matriz cuadrada Toda matriz cuadrada A lleva asociado un número, llamado determinante de A, y que denotaremos mediante el símbolo. Este número, entre otras cosas, permite saber cuándo

Más detalles

DETERMINANTES MATRICES EQUIVALENTES POR FILAS RANGO DE UNA MATRIZ. APLICACIONES

DETERMINANTES MATRICES EQUIVALENTES POR FILAS RANGO DE UNA MATRIZ. APLICACIONES Tema 2.- DETERMINANTES DETERMINANTES MATRICES EQUIVALENTES POR FILAS RANGO DE UNA MATRIZ. APLICACIONES 1 Un poco de historia Los determinantes es uno de los temas más útiles del Álgebra Lineal, con muchas

Más detalles

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE

ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE ANÁLISIS ESTADÍSTICO REGRESIÓN LINEAL SIMPLE Jorge Fallas jfallas56@gmail.com 2010 1 Temario Introducción: correlación y regresión Supuestos del análisis Variación total de Y y variación explicada por

Más detalles

Econometría II. Hoja de Problemas 1

Econometría II. Hoja de Problemas 1 Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli

Más detalles

Proposición Sea V un espacio vectorial sobre K de dimensión n y B una base de V. Gl(n, K) = {A M(n n, K) A = 0}.

Proposición Sea V un espacio vectorial sobre K de dimensión n y B una base de V. Gl(n, K) = {A M(n n, K) A = 0}. Tema 6 Formas canónicas 6.1 Introducción Proposición 6.1.1. Sea V un espacio vectorial sobre K de dimensión n y B una base de V. La aplicación Φ B : End(V ) M(n n, K) definida por Φ B (f) = M B (f), es

Más detalles

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones.

Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Tema 1. Espacios Vectoriales. Sistemas de ecuaciones. Álgebra Lineal Escuela Politécnica Superior Universidad de Málaga Emilio Muñoz-Velasco (Basado en los apuntes de Jesús Medina e Inmaculada Fortes)

Más detalles

Capítulo 3. Polinomios

Capítulo 3. Polinomios Capítulo 3 Polinomios 29 30 Polinomios de variable real 31 Polinomios de variable real 311 Evaluación de polinomios Para el cálculo eficiente de los valores de un polinomio se utiliza el algoritmo de Horner,

Más detalles

6 Vectores. Dependencia e independencia lineal.

6 Vectores. Dependencia e independencia lineal. 6 Vectores. Dependencia e independencia lineal. Introducción Hay fenómenos reales que se pueden representar adecuadamente mediante un número con su adecuada unidad de medida. Sin embargo para representar

Más detalles

Multiple Linear Regression

Multiple Linear Regression Multiple Linear Regression Aniel Nieves-González Aniel Nieves-González () LSP 1 / 16 Considere el ejemplo en cual queremos modelar las ventas en una cadena de tiendas por departamento. La v.a. dependiente

Más detalles

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño

7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL. Jorge Eduardo Ortiz Triviño 7. REGRESIÓN POR MÍNIMOS CUADRADOS: REGRESIÓN POLINOMIAL Jorge Eduardo Ortiz Triviño jeortizt@unal.edu.co http:/www.docentes.unal.edu.co/jeortizt/ Introducción Los datos frecuentemente son dados para valores

Más detalles

!DETERMINANTES. Tema 3.- DETERMINANTES !MATRICES EQUIVALENTES POR FILAS!RANGO DE UNA MATRIZ. APLICACIONES. Un poco de historia

!DETERMINANTES. Tema 3.- DETERMINANTES !MATRICES EQUIVALENTES POR FILAS!RANGO DE UNA MATRIZ. APLICACIONES. Un poco de historia Tema 3.- DETERMINANTES!DETERMINANTES!MATRICES EQUIVALENTES POR FILAS!RANGO DE UNA MATRIZ. APLICACIONES 1 Un poco de historia Los determinantes es uno de los temas más útiles del Álgebra Lineal, con muchas

Más detalles

MATRICES Y DETERMINANTES RANGO DE UNA MATRIZ

MATRICES Y DETERMINANTES RANGO DE UNA MATRIZ Índice Presentación... 3 Matrices equivalentes... 4 Ejemplo... 5 Dependencia lineal... 6 Rango de una matriz... 7 Ejemplo... 8 Rango de una matriz a partir de los determinantes... 9 Ejemplo... 10 Propiedades

Más detalles

Conjuntos y matrices. Sistemas de ecuaciones lineales

Conjuntos y matrices. Sistemas de ecuaciones lineales 1 Conjuntos y matrices Sistemas de ecuaciones lineales 11 Matrices Nuestro objetivo consiste en estudiar sistemas de ecuaciones del tipo: a 11 x 1 ++ a 1m x m = b 1 a n1 x 1 ++ a nm x m = b n Una solución

Más detalles

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n )

Esta expresión polinómica puede expresarse como una expresión matricial de la forma; a 11 a 12 a 1n x 1 x 2 q(x 1, x 2,, x n ) = (x 1, x 2,, x n ) Tema 3 Formas cuadráticas. 3.1. Definición y expresión matricial Definición 3.1.1. Una forma cuadrática sobre R es una aplicación q : R n R que a cada vector x = (x 1, x 2,, x n ) R n le hace corresponder

Más detalles

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica

ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación

Más detalles

Espacios Vectoriales

Espacios Vectoriales Leandro Marín Octubre 2010 Índice Definición y Ejemplos Paramétricas vs. Impĺıcitas Bases y Coordenadas Para definir un espacio vectorial tenemos que empezar determinando un cuerpo sobre el que esté definido

Más detalles

ÁLGEBRA LINEAL I Práctica 5

ÁLGEBRA LINEAL I Práctica 5 ÁLGEBRA LINEAL I Práctica 5 Espacios vectoriales (Curso 2014 2015) 1. En el espacio vectorial real IR 2 consideramos los siguientes subconjuntos: (a) A = {(x y) IR 2 x 2 + y 2 = 1}. (b) B = {(x y) IR 2

Más detalles

Tercera práctica de REGRESIÓN.

Tercera práctica de REGRESIÓN. Tercera práctica de REGRESIÓN. DATOS: fichero practica regresión 3.sf3 1. Objetivo: El objetivo de esta práctica es aplicar el modelo de regresión con más de una variable explicativa. Es decir regresión

Más detalles

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16

Regresión Lineal. Rodrigo A. Alfaro. Rodrigo A. Alfaro (BCCh) Regresión Lineal / 16 Regresión Lineal Rodrigo A. Alfaro 2009 Rodrigo A. Alfaro (BCCh) Regresión Lineal 2009 1 / 16 Contenidos 1 Regresiones Lineales Regresión Clásica Paquetes estadísticos 2 Estadísticos de Ajuste Global 3

Más detalles

El Algoritmo E-M. José Antonio Camarena Ibarrola

El Algoritmo E-M. José Antonio Camarena Ibarrola El Algoritmo E-M José Antonio Camarena Ibarrola Introducción Método para encontrar una estimación de máima verosimilitud para un parámetro ѳ de una distribución Ejemplo simple 24 Si tiene las temperaturas

Más detalles

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades:

un conjunto cuyos elementos denominaremos vectores y denotaremos por es un espacio vectorial si verifica las siguientes propiedades: CAPÍTULO 2: ESPACIOS VECTORIALES 2.1- Definición y propiedades. 2.1.1-Definición: espacio vectorial. Sea un cuerpo conmutativo a cuyos elementos denominaremos escalares o números. No es necesario preocuparse

Más detalles

Modelo de Análisis de la Covarianza. Introducción al modelo de Medidas Repetidas

Modelo de Análisis de la Covarianza. Introducción al modelo de Medidas Repetidas Modelo de Análisis de la Covariza. Introducción al modelo de Medidas Repetidas Modelo de Análisis de la Covariza Introducción El diseño por bloques se considera para eliminar el efecto de los factores

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Georgina Flesia FaMAF 3 de mayo, 2012 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Selección de distribuciones de probabilidad

Selección de distribuciones de probabilidad Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación

Más detalles

Subespacios de espacios vectoriales

Subespacios de espacios vectoriales Subespacios de espacios vectoriales Objetivos. Estudiar la definición, el criterio y algunos ejemplos de subespacios vectoriales. Muchos espacios vectoriales importantes (por ejemplo, espacio de soluciones

Más detalles

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE

7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE ESCUELA UNIVERSITARIA DE ENFERMERIA DE TERUEL 1 er CURSO DE GRADO DE ENFERMERIA Estadística en Ciencias de la Salud 7. ANÁLISIS DE VARIABLES CUANTITATIVAS: REGRESIÓN LINEAL SIMPLE PROFESOR Dr. Santiago

Más detalles

Teoría de la decisión

Teoría de la decisión 1.- Un problema estadístico típico es reflejar la relación entre dos variables, a partir de una serie de Observaciones: Por ejemplo: * peso adulto altura / peso adulto k*altura * relación de la circunferencia

Más detalles

2. Sistemas de ecuaciones lineales

2. Sistemas de ecuaciones lineales 2 Sistemas de ecuaciones lineales 2 Ejercicios resueltos Ejercicio 2 Estudiar el número de condición de Frobenius de la matriz a b A a + ε b Solución: El determinante de A es A ab + ba + ε b ε Si b 0 y

Más detalles

Diagonalización de matrices

Diagonalización de matrices Capítulo 6 Diagonalización de matrices 6.. Introducción 6... Un ejemplo preliminar Antes de plantearlo de manera general, estudiaremos un ejemplo que servirá para situar el problema. Supongamos que, en

Más detalles

Tema 2. Heterocedasticidad. 1 El modelo de regresión lineal con errores heterocedásticos

Tema 2. Heterocedasticidad. 1 El modelo de regresión lineal con errores heterocedásticos ema 2. Heterocedasticidad. El modelo de regresión lineal con errores heterocedásticos En este tema vamos a analizar el modelo de regresión lineal Y t = X tβ + u t, donde X t = (X t, X 2t,.., X kt y β =

Más detalles

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados

Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados Capítulo 5 Espacios Vectoriales Euclídeos. Métodos de los mínimos cuadrados En este tema iniciamos el estudio de los conceptos geométricos de distancia y perpendicularidad en K n. Empezaremos con las definiciones

Más detalles

Tema 4. Regresión lineal simple

Tema 4. Regresión lineal simple Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias

Más detalles

ESTADÍSTICA APLICADA. Tema 4: Regresión lineal simple

ESTADÍSTICA APLICADA. Tema 4: Regresión lineal simple ESTDÍSTIC PLICD Grado en Nutrición Humana y Dietética Planteamiento del problema Tema 4: Regresión lineal simple Recta de regresión de mínimos cuadrados El modelo de regresión lineal simple IC y contrastes

Más detalles

Aplicaciones de los S.E.D.O.

Aplicaciones de los S.E.D.O. Tema 7 Aplicaciones de los S.E.D.O. 7. Introducción Nota: APUNTES INCOMPLETOS Estudiaremos en este Tema algunos modelos de interés en las Ciencias Naturales que utilizan para su modelización sistemas de

Más detalles

EXTENSIONES DEL MODELO DE REGRESIÓN

EXTENSIONES DEL MODELO DE REGRESIÓN EXTENSIONES DEL MODELO DE REGRESIÓN 1. Regresión exponencial 2. Regresión polinómica 3. Regresión con variables cualitativas M. Carmen Carollo, Beatriz Pateiro Página 1 1. Regresión exponencial Al tratar

Más detalles

Método de mínimos cuadrados (Continuación)

Método de mínimos cuadrados (Continuación) Clase No. 11: MAT 251 Método de mínimos cuadrados (Continuación) Dr. Alonso Ramírez Manzanares CIMAT A.C. e-mail: alram@ cimat.mx web: http://www.cimat.mx/ alram/met_num/ Dr. Joaquín Peña Acevedo CIMAT

Más detalles

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7)

INTRODUCCIÓN AL ANÁLISIS DE DATOS ORIENTACIONES (TEMA Nº 7) TEMA Nº 7 DISTRIBUCIONES CONTINUAS DE PROBABILIDAD OBJETIVOS DE APRENDIZAJE: Conocer las características de la distribución normal como distribución de probabilidad de una variable y la aproximación de

Más detalles

Capítulo 8. Selección de variables Introducción

Capítulo 8. Selección de variables Introducción Capítulo 8 Selección de variables 8.1. Introducción En muchos problemas de regresión es posible considerar un número importante de variables predictoras. Un empresario podría estudiar los factores que

Más detalles

ESTADÍSTICA. Tema 4 Regresión lineal simple

ESTADÍSTICA. Tema 4 Regresión lineal simple ESTADÍSTICA Grado en CC. de la Alimentación Tema 4 Regresión lineal simple Estadística (Alimentación). Profesora: Amparo Baíllo Tema 4: Regresión lineal simple 1 Estructura de este tema Planteamiento del

Más detalles

Estimación del modelo lineal con dos variables

Estimación del modelo lineal con dos variables Estimación del modelo lineal con dos variables el método de mínimos cuadrados ordinarios (MCO) Mariana Marchionni marchionni.mariana@gmail.com Mariana Marchionni Estimación del modelo lineal por MCO 1

Más detalles

UNA PROPUESTA PARA LA MAXIMIZACIÓN DE LA ESTADÍSTICA Q K

UNA PROPUESTA PARA LA MAXIMIZACIÓN DE LA ESTADÍSTICA Q K Revista Colombiana de Estadística Volumen 24 (2001) N o 1, páginas 45 a 57 UNA PROPUESTA PARA LA MAXIMIZACIÓN DE LA ESTADÍSTICA Q K JOSÉ A. JIMÉNEZ M.* Resumen En este artículo mediante el método de los

Más detalles

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS.

TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. TEMA 1. MATRICES, DETERMINANTES Y APLICACIÓN DE LOS DETERMINANTES. 1. MATRICES. CONCEPTO DE MATRIZ. LA MATRIZ COMO EXPRESIÓN DE TABLAS Y GRAFOS. DEFINICIÓN: Las matrices son tablas numéricas rectangulares

Más detalles

Estadística para la Economía y la Gestión IN 3401

Estadística para la Economía y la Gestión IN 3401 Estadística para la Economía y la Gestión IN 3401 3 de junio de 2010 1 Modelo de Regresión con 2 Variables Método de Mínimos Cuadrados Ordinarios Supuestos detrás del método MCO Errores estándar de los

Más detalles

Matriz asociada a una transformación lineal respecto a un par de bases

Matriz asociada a una transformación lineal respecto a un par de bases Matriz asociada a una transformación lineal respecto a un par de bases Ejercicios Objetivos Comprender cómo se describe una transformación lineal (que actúa en espacios vectoriales de dimensiones finitas)

Más detalles

Instituto Tecnológico de Lázaro Cárdenas Ingeniería Electrónica. Interpolación Spline

Instituto Tecnológico de Lázaro Cárdenas Ingeniería Electrónica. Interpolación Spline Instituto Tecnológico de Lázaro Cárdenas Ingeniería Electrónica Interpolación Spline Asignatura: Análisis Numérico Docente: M.C. Julio César Gallo Sanchez Alumno: José Armando Lara Ramos Equipo: 9 4 o

Más detalles

Variables Dependientes Limitadas

Variables Dependientes Limitadas Variables Dependientes Limitadas Muestras Truncadas y Censuradas: revisión En algunos casos las variables dependientes pueden estar limitadas en su rango. Ejemplos típicos son las limitaciones por la forma

Más detalles

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar

Mínimos cuadrados. Mayo de Ejemplos de introducción. Observación preliminar Mínimos cuadrados Mayo de 2015. Ejemplos de introducción Observación preliminar Sean dos matrices A y B, por ejemplo a b A =, B = c d x z y t Las columnas de A representan los vectores u = (a; c) y v =

Más detalles

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN

ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN CURSO DE BIOESTADÍSTICA BÁSICA Y SPSS ASOCIACIÓN ENTRE DOS VARIABLES CONTINUAS: REGRESIÓN Y CORRELACIÓN Amaia Bilbao González Unidad de Investigación Hospital Universitario Basurto (OSI Bilbao-Basurto)

Más detalles

Lección 8. Matrices y Sistemas de Ecuaciones Lineales

Lección 8. Matrices y Sistemas de Ecuaciones Lineales Lección 8 Matrices y Sistemas de Ecuaciones Lineales MIGUEL ANGEL UH ZAPATA 1 Análisis Numérico I Facultad de Matemáticas, UADY Septiembre 2014 1 Centro de Investigación en Matemáticas, Unidad Mérida En

Más detalles

Aplicaciones Lineales

Aplicaciones Lineales Aplicaciones Lineales AMD Grado en Ingeniería Informática AMD Grado en Ingeniería Informática (UM) Aplicaciones Lineales 1 / 47 Objetivos Al finalizar este tema tendrás que: Saber si una aplicación es

Más detalles

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si

Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES. 1. Una matriz A de n n es diagonalmente dominante (estrictamente) por filas si Cuarta relación de problemas Técnicas Numéricas Profesor Francisco R. Villatoro 13 de Diciembre de 1999 SOLUCIONES 1. Una matriz A de n n es diagonalmente dominante estrictamente por filas si a ii > a

Más detalles

TEMA 2: Propiedades de los estimadores MCO

TEMA 2: Propiedades de los estimadores MCO TEMA 2: Propiedades de los estimadores MCO Econometría I M. Angeles Carnero Departamento de Fundamentos del Análisis Económico Curso 2011-12 Econometría I (UA) Tema 2: Pdades de los estimadores MCO Curso

Más detalles

Base y Dimensión de un Espacio Vectorial

Base y Dimensión de un Espacio Vectorial Base y Dimensión de un Espacio Vectorial 201 6Asturias: Red de Universidades Virtuales Iberoamericanas 1 Índice 1 Qué es un sistema generador?... 4 2 Base de un espacio vectorial... 4 3 Dimensión de un

Más detalles

PROBLEMAS RESUELTOS del espacio vectorial curso

PROBLEMAS RESUELTOS del espacio vectorial curso PROBLEMAS RESUELTOS del espacio vectorial curso - - Consideremos el conjunto R formado por todas las parejas () de números reales Se define en R la operación interna ()( )( ) una de las operaciones eternas

Más detalles

Sistemas de ecuaciones lineales. El método de Gauss

Sistemas de ecuaciones lineales. El método de Gauss Sistemas de ecuaciones lineales. El método de Gauss En los artículos anteriores se ha hablado de ecuaciones lineales de primer grado con dos incógnitas y de ecuaciones lineales de primer grado con tres

Más detalles

Modelos lineales. Tema 2: Inferencia en el modelo de regresión lineal simple. 6 de febrero de Carmen Armero

Modelos lineales. Tema 2: Inferencia en el modelo de regresión lineal simple. 6 de febrero de Carmen Armero Carmen Armero 6 de febrero de 2012 Introducción Distribuciones en el muestreo Intervalos de confianza Contrastes de hipótesis El modelo de regresión lineal simple El modelo de regresión lineal simple para

Más detalles

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos

Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,

Más detalles

CONTRASTE SOBRE UN COEFICIENTE DE LA REGRESIÓN

CONTRASTE SOBRE UN COEFICIENTE DE LA REGRESIÓN Modelo: Y =! 1 +! 2 X + u Hipótesis nula: Hipótesis alternativa H 1 :!!! 2 2 Ejemplo de modelo: p =! 1 +! 2 w + u Hipótesis nula: Hipótesis alternativa: H :!! 1 2 1. Como ilustración, consideremos un modelo

Más detalles

Rango de una matriz. Antes de nada daremos algunas definiciones. Para ello supongamos que tenemos una matriz de orden m n: A M m n.

Rango de una matriz. Antes de nada daremos algunas definiciones. Para ello supongamos que tenemos una matriz de orden m n: A M m n. En un artículo anterior dijimos que el rango de una matriz A, ra), es el número de filas que son linealmente independientes. También se hizo uso del método de Gauss para calcular el rango de una matriz:

Más detalles

2 Espacios vectoriales

2 Espacios vectoriales Águeda Mata y Miguel Reyes, Dpto. de Matemática Aplicada, FI-UPM 1 2 Espacios vectoriales 2.1 Espacio vectorial Un espacio vectorial sobre un cuerpo K (en general R o C) es un conjunto V sobre el que hay

Más detalles

Tema 6: Introducción a la inferencia estadística

Tema 6: Introducción a la inferencia estadística Tema 6: Introducción a la inferencia estadística Estadística. 4 o Curso. Licenciatura en Ciencias Ambientales Licenciatura en Ciencias Ambientales (4 o Curso) Tema 6: Introducción a la inferencia estadística

Más detalles

Espacios vectoriales.

Espacios vectoriales. Unidad docente de Matemáticas Matemáticas (CC. Químicas) Espacios vectoriales. Si detectas cualquier error o errata por favor, comunicaselo al profesor de la asignatura. El subíndice can significa canónica/o..

Más detalles

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M.

INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. 1 Introducción INTERVALOS DE CONFIANZA Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la estimación mediante Intervalos de Confianza, que es otro de los tres grandes

Más detalles