Modelo Lineal Generalizado
|
|
|
- Rocío Dolores Naranjo Flores
- hace 9 años
- Vistas:
Transcripción
1 Modelo Lineal Generalizado Introducción Comenzaremos con un ejemplo que nos servirá para ilustrar el análisis de datos binarios. Nuestro interés se centra en relacionar una estructura estocástica en los datos que siguen una distribución binomial y una estructura sistemática en términos de alguna transformación de las variables independientes. Los siguientes datos tomados de Little (1978) corresponden a 1607 mujeres casadas y fértiles entrevistadas por la Encuesta de Fertilidad Fiji de 1975, clasificadas por edad, nivel de educación, deseo de tener más hijos y el uso de anticonceptivos. 1
2 Edad Educación Más Hijos? Uso de Anticonceptivos Total No Si < 25 Baja Si No Alta Si No Baja Si No Alta Si No Baja Si No Alta Si No Baja Si No Alta Si No Total En este ejemplo se considera a Anticoncepción como variable dependiente y a las demás como predictoras. En este caso, todas las predictoras son variables categóricas, sin embargo el modelo que presentaremos permite introducir variables independientes continuas y discretas. 2
3 El objetivo es decribir cómo el uso de métodos anticonceptivos varía según la edad, el nivel de educación y el deseo de tener más hijos. Por ejemplo, una pregunta que sería interesante responder es si la asociación entre educación y anticoncepción es afectada por el hecho de que mujeres con un nivel de educación más elevado prefieren familias más chicas que las mujeres con niveles de educación inferior. Compenente Aleatoria Definamos Y i = 1 si usa anticonceptivo 0 si no Y i toma los valores 1 y 0 con probabilidad Π i y 1 Π i, respectivamente,y por lo tanto E(Y i ) = Π i V ar(y i ) = Π i (1 Π i ). Tanto la media como la varianza dependen de i, por lo tanto cualquier fac- 3
4 tor que afecte la esperanza también afectará la varianza. Esto nos sugiere que cualquier modelo, que como el lineal, asuma homoscedasticidad de las observaciones no será adecuado para este problema. En nuestro ejemplo, de acuerdo con el valor de las variables predictoras, las observaciones pueden ser clasificadas en 16 grupos. Si llamamos n i al número de observaciones del grupo i e Y i denota al número de éxitos, tendremos que Y i Bi(n i, Π i ). En nuestro caso, Y i = número de mujeres que usan anticonceptivos en el i ésimo grupo. Luego, para k = 0,..., n i. P (Y i = k) = n i k Π k i (1 Π i ) n i k E(Y i ) = n i Π i V ar(y i ) = n i Π i (1 Π i ), 4
5 Compenente sistemática El próximo paso en la definición del modelo involucra a las covariables x i que participan en lo que llamaremos componente sistemática. El modelo más sencillo podría expresar a Π i como una combinación lineal de las variables independientes: Π i = x iβ, siendo β el vector de parámetros a estimar. Este modelo recibe el nombre de modelo de probabilidad lineal y su estimación puede basarse en mínimos cuadrados ordinarios. Un problema evidente de este modelo es que las probabilidades Π i son acotadas, mientras que las x iβ pueden tomar cualquier valor real. Si bien esto podría controlarse imponiendo complicadas restricciones a los coeficientes, esta solución no resulta muy natural. Una solución sencilla es transformar la probabilidad mediante una función que mapee el intervalo (0, 1) sobre la recta real y luego modelar esta transformación como una función lineal de las variables independientes. 5
6 Una manera de hacer esto es mediante los odds definidos como Ψ = Π 1 Π, es decir la razón entre los casos favorables y los no favorables. Veamos unos ejemplos: Π Ψ De manera que odds menores que 1 están asociados a probabilidades menores que 0.5 y odds mayores que 1 están asociados a probabilidades mayores que 1. Sin embargo, esta transformación no alcanza, pues sólo mapea sobre los reales positivos. Para extenderla a los negativos introduciremos el log: 6
7 logit(π) = log Π = β o + β 1 x 1 + β 2 x β p x p = x β = η 1 Π La función logit es estrictamente creciente y tiene inversa: Π = logit 1 (η) = eη 1 + e. η En nuestro ejemplo tenemos: 507 mujeres usan anticonceptivos entre las 1607, por lo que estimamos la probabilidad como 507 = Luego, los odds se 1607 calculan como = = 0,461. Entonces, aproximadamente por cada mujer que usa anticoceptivos hay dos que no usan. El logit(0,461) = 0,775. 7
8 Modelo de Regresión Logística Supongamos que Y 1,..., Y n son v.a.independientes tales que Y i Bi(n i, Π i ). (1) Esto define la componente aleatoria. Supongamos además que la probabilidad Π i es una función de los predictores: logit(π i ) = x iβ, (2) donde las x i son las covariables. Esto define la componente sistemática del modelo. El modelo definido por (1) y por (2) es un modelo lineal generalizado con respuesta binomial y función de enlace logit. Los coeficientes β tienen una interpretación similar a la que tienen en el modelo lineal, pero debemos tener en cuenta que el miembro de la derecha es un logit y no una media. Los β j representan entonces el cambio en el logit de la probabailidad asociada cuando hay un cambio de una unidad en el j ésimo 8
9 9
10 predictor y se matienen constantes todas las demás variables. Como iβ Π i = ex 1 + e x iβ, la relación con π i es no lineal, luego no es tan sencillo como en el modelo lineal expresar el cambio en Π i al cambiar un predictor. Sin embargo, cuando el predictor es continuo, podemos hacer una aproximación tomando derivadas con respecto a la j ésima coordenada de x i, obteniendo Π i = β j Π i (1 Π i ). x ij Luego, el efecto del j ésimo predictor depende del coeficiente β j y de la probabilidad Π i. Una vez establecido el modelo que queremos ajustar deberemos estimar los parámetros, hallar intervalos de confianza para los mismos, evaluar la bondad del ajuste y es probable que nos interese realizar algún test que involucre a los parámetros. También tendremos que evaluar la influencia de las observaciones en la determinación de los valores estimados. 10
11 Modelo Lineal Generalizado El modelo lineal clásico lo podemos definir como: Y = (Y 1,..., Y n ) N(E(Y), Σ Y ) donde (3) E(Y) = µ = Xβ Σ Y = σ 2 I Podemos pensar el modelo (3) como un modelo con tres componentes: 1. Componente Aleatoria: Y N(µ, σ 2 ) 2. Componente Sistemática: covariables x 1, x 2,..., x p que dan origen al predictor lineal η = p j=1 x j β j. 3. Función de enlace: enlace entre las dos componentes µ = η. Si escribimos η = g(µ), g es la llamada función de enlace o link. Los modelos lineales generalizados permiten dos extensiones: I. podemos tratar distribuciones que pertenezcan a una familia exponencial. 11
12 II. podemos elegir una función de enlace que sea una función monótona y diferenciable. El Modelo Lineal Generalizado tuvo mucha difusión a partir del libro de McCullagh y Nelder (1989). En estos modelos la variable de respuesta Y i sigue una distribución que pertenece a una familia exponencial con media µ i que es una función, por lo general no lineal, de x iβ. Nota Recordemos que en la expresión clásica del modelo lineal tenemos un error aleatorio aditivo Y = x β + ɛ. Los modelos GLM no tienen esta estructura. Por ejemplo, en el caso del logit no podemos escribir Π log = x β + ɛ. 1 Π Para este modelo, el error aleatorio ya está incluido en Y Bi(n, Π) y g(µ) = η es una relación funcional. 12
13 Función de Verosimilitud para el GLM Sea Y una v.a. con función de densidad o probabilidad dada por: f Y (y, θ, φ) = exp yθ b(θ) a(φ) + c(y, φ) para algunas funciones a(φ), b(θ) y c(y, φ). Si φ es un parámetro conocido, ésta es una familia exponencial con parámetro canónico o natural θ. Si φ no es conocido, ésta puede ser una familia exponencial en (θ, φ) o no. φ es un parámetro de dispersión o de forma. La media E(Y ) es sólo función de θ y es por lo tanto el parámetro de interés; φ en general es tratado como un parámetro nuisance. En la mayoría de los casos φ no será tratado tal como es tratado θ. Estimaremos y haremos inferencia bajo un valor asumido de φ y si φ necesita ser estimado, lo estimaremos y luego será tomado como un valor fijo y conocido. Esta familia incluye distribuciones simétricas, asimétricas, discretas y continuas, tales como la distribución Normal, Binomial, Poisson o Gamma., 13
14 Momentos de una familia exponencial Deduciremos el primer y segundo momento de una familia exponencial a partir del logaritmo de su verosimilitud. yθ b(θ) l(θ, y) = a(φ) Su primera derivada o score es: + c(y, φ). l l(θ, y) (θ, y) = θ mientras que su derivada segunda es: = y b (θ) a(φ), Como E l(θ, y) θ l (θ, y) = l2 (θ, y) 2 θ = 0, entonces = b (θ) a(φ). 14
15 y por lo tanto 0 = E (l (θ, y)) = E y b (θ) a(φ) µ = E(Y ) = b (θ). Además, sabemos que entonces E(l (θ, y)) = E [ (l (θ, y)) 2], V ar(l (θ, y)) = E [ (l (θ, y)) 2] = E(l (θ, y)) = b (θ) a(φ). Por otro lado, V ar(l (θ, y)) = V ar y b (θ) a(φ) = 1 a 2 (φ) V ar(y ) 15
16 y en consecuencia V ar(y ) = a(φ)b (θ). La varianza es el producto de dos funciones: una que depende del parámetro natural, θ y otra que depende sólo del parámetro nuisance φ. 16
17 Supuestos del modelo la variable de respuesta Y tiene distribución exp yθ b(θ) a(φ) + c(y, φ) donde θ es el parámetro canónico, para el cual el predictor lineal, µ = E(Y ) = b (θ) y V ar(y ) = a(φ)b (θ) η = x β siendo x el vector de covariables y β el vector a estimar la función de enlace que relaciona a η y µ g(µ) = η 17
18 Nota: En algunos casos a(φ) es de la forma a(φ) = φ, donde w es un peso w conocido. Ejemplos 1. Caso Normal: Y N(µ, σ 2 ). f(y, θ, φ) = 1 2Πσ 2 = exp exp 1 2 yµ µ 2 /2 σ (y µ) 2 σ 2 y 2 σ 2 + log(2πσ2 ) por lo tanto θ = µ, b(θ) = µ2 2, φ = σ2, a(φ) = φ y c(y, φ) = 1 2 E(Y ) = µ, y 2 σ + 2 log(2πσ2 ). En el caso heteroscedástico Y N(µ, σ2 w ), donde w es un peso conocido, tenemos φ = σ 2 y a(φ) = φ w. 2. Caso Binomial: Y Bi(n, p) 18
19 Consideremos Y n = proporción de éxitos. P ( Y n = y n ) = n p y (1 p) n y y y = exp n n log p + n log(1 p) + log 1 p por lo tanto θ = log n y n n. n y n n p 1 p, b(θ) = log(1 + eθ ), φ = n, a(φ) = 1 n y c(y n, φ) = E Y = p = n eθ 1 + e θ 3. Caso Poisson: Y P (λ). λ λy P (Y = y) = e y! = exp (y log λ λ log y!) 19
20 por lo tanto θ = log λ, b(θ) = e θ, φ = 1, a(φ) = 1 y c(y, φ) = log y! E(Y ) = λ = e θ Función de enlace o link Esta función relaciona el predictor lineal η con la esperanza µ de la respuesta Y. A diferencia del modelo lineal clásico, aquí introducimos una función uno a uno continua y diferenciable, g(µ), tal que η = g(µ). Ejemplos de g(t) son la identidad, el log,la logística y la probit. Como la función g es biyectiva podremos invertirla, obteniendo: µ = g 1 (η) = g 1 (x β). En el caso Binomial, por ejemplo, tenemos que µ (0, 1) y el link tiene que mapear sobre la recta real. Suelen usarse 3 links: 1. Logit: η = log µ 1 µ ( eη 1+e η ) 20
21 2. Probit: η = Φ 1 (µ) 3. Complemento log log: η = log( log(1 µ)) Links Canónicos: En el caso normal mostramos que si Y N(µ, σ 2 ) el parámetro canónico es θ = µ. En el caso binomial Y Bi(n, p) en el que consideremos Y vimos que el n canónico es θ = logit(π). Estos son los links más usados en cada caso. Cuando usamos η = θ el modelo tiene el link canónico o natural. Es conveniente usar el link natural, ya que algunas cosas se simplifican, pero la posibilidad de usarlo dependerá de los datos con los que estemos trabajando. Normal: ηµ Poisson: η = log µ Binomial: η = log µ 1 µ Gamma: η = µ 1 21
22 Estimación de los parámetros: Método de Newton Raphson y Fisher scoring Supongamos que Y 1,..., Y n son variables aleatorias que satisfacen los supuestos de un GLM y que queremos maximizar el loglikelihood l(β, y) respecto a β = (β 1,..., β p ). Queremos resolver l (β) = l (β, y) = 0. En general éste es un sistema no lineal. Aproximaremos la ecuación linealmente en la vecindad de un punto β (t) mediante el algoritmo de Newton Raphson. Usando una expansión de Taylor de primer orden, tenemos que: l (β) = l (β (t) ) + (β β (t) ) l (β (t) ) β = β (t) [ l (β (t) ) ] 1 l (β (t) ) (4) Si l(β) es cuadrática, entonces l (β) es lineal y el algoritmo iterativo con- 22
23 23
24 vergerá en un solo paso a partir de un punto inicial. En problemas regulares, el log likelihood se hace aproximadamente cuadrático a medida que n crece. En estas situaciones el método de NR funcionará bien, mientras que en muestras pequeñas y con log likelihoods alejados de una cuadrática NR podría no converger. Veamos como quedan los distintos elementos de (4). Por simplicidad estudiaremos la contribución de cada término Y i al log likelihood omitiendo los subíndices superfluos. Salvo constantes tenemos que: Cuánto vale cada derivada? Recordemos que yθ b(θ) l(θ, y) = a(φ) l = l θ µ β j θ µ η η β j 24
25 yθ b(θ) exp + c(y, φ) a(φ), µ = E(Y ) = b (θ) y V ar(y ) = a(φ)b (θ) η = x β g(µ) = η luego, resulta l θ = y b (θ) = y µ a(φ) a(φ) θ µ = 1 b (θ) = a(φ) V ar(y ) µ = depende de la función de enlace η η = x ij, β j l β j = Y µ V ar(y ) µ η x ij. 25
26 De esta manera, las ecuaciones de máxima verosimilitud quedan: l = n Y i µ i µ i x ij = 0 (5) β j i=1 V i η i Por ejemplo, si usamos el link natural tenemos que y además V = b (θ) = b (η) µ = b (θ) = b (η) µ η = b (η), por lo tanto 1 µ V η = 1. Si consideramos la derivada segunda a partir de (5) queda: 2 l = β k β j i β k (Y i µ i ) 1 V i µ i η i x ij + i (Y i µ i ) β k En el método de Fisher scoring se propone utilizar E 26 1 µ i x ij. (6) V i η i 2 l β k β j en lugar de
27 2 l β k β j con el fin de obtener resultados más estables. Podemos hallar esta esperanza recordando que: E 2 l β k β j = E = E = l l β k β j Y µ V ar(y ) 1 V ar(y ) µ η 2 2 µ η 2 x ij x ik. x ij x ik Cuando usamos el link natural queda 2 l E β k β j Si volvemos a la muestra tendremos i V 1 i = b (θ) a(φ) x ijx ik. µ i η i 2 x ij x ik 27
28 que en forma matricial podemos escribir como: siendo W = diag V 1 i ( ) µi 2. η i X WX También notemos que cuando usamos el link natural V tanto (6) queda 1 µ η = 1, por lo (Y µ) 1 µ i β k V η x j, por lo tanto,en este caso, Newton Raphson coincide con Fisher scoring. Finalmente, si V 1 = diag(vi 1 ), entonces y si volvemos a (4) queda l = X V 1 µ (Y µ), β j η 28
29 β (t+1) = β (t) + (X WX) 1 X V 1 µ (Y µ) η β (t+1) = (X WX) 1 X X β W (t) + X V 1 µ (Y µ) η β (t+1) = (X WX) 1 X Wz, donde z = η + η (Y µ) µ De esta manera vemos al método de Fisher scoring como mínimos cuadrados pesados iterados(irwls) 1) En cada ciclo usamos el valor actual de β para construir la variable de trabajo z y nuevos pesos W. 2) Hacemos la regresión de z sobre x usando los pesos W para actualizar el valor de β. 29
30 Recordemos el algoritmo de cálculo del estimador: β = β (t) + [ l (β (t) ) ] 1 l (β (t) ) La contribución de cada término Y i al loglikelihood es, salvo constantes: l i (θ i, Y i ) = Y iθ i b(θ i ) a(φ) + c(y i, φ) Su derivada respecto de β j l i β j = Y i µ i V ar(y i ) µ i η i x ij. Las ecuaciones de máxima verosimilitud quedan: l β j = n i=1 Y i µ i V i µ i η i x ij = 0. (7) 30
31 La derivada segunda es: 2 l = β k β j i β k (Y i µ i ) 1 V i µ i η i x ij + i (Y i µ i ) β k 1 µ i x ij V i η i. Método de Fisher scoring: usamos Por lo tanto E 2 l i β k β j = 1 V ar(y i ) µ i η i 2 x ij x ik. E 2 l β k β j = i V 1 i = i µ i η i µ i Vi 1 η i 2 x ij x ik. µ i η i x ij x ik. 31
32 entonces, en forma matricial E 2 l β β = i µ i β V 1 i µ i β. Finalmente, si: W (t) = diag Vi 1 (V (t) ) 1 = diag(v 1 i ) µ i η i 2 resulta β (t+1) = β (t) + ( X W (t) X ) 1 X (V (t) ) 1 µ (Y µ) η β (t+1) = ( X W (t) X ) 1 X W (t) z (t), donde µ = µ (t) y η = η (t) y 32
33 z (t) = η + η (Y µ) µ Casos Particulares Distribución Binomial: regresión logística Sean Y i Bi(n i, Π i ). Supongamos que log ( Π i ) = x i β, con lo cual ex iβ 1 Π i Π i = 1 + e x iβ = e x iβ Tenemos las siguientes igualdades: Likelihood = Likelihood Likelihood l(β) = n i=1 n i=1 n n i! y i! (n i y i )! Πy i i (1 Π i ) n i y i Π i i y (1 Π i ) n i 1 Π i i=1 ex iβy i (1 + e x iβ ) n i n i=1 x iβ y i n i=1 n i log(1 + e x iβ ) 33
34 l(β) = n β y ix ij n j i=1 i=1 n i = n (y i µ i ) x ij, i=1 donde µ i = E(Y i ) = n i Π i. Derivadas segundas: 2 l(β) β j β k Usemos la notación matricial: = n i=1 n i x ij β k = n e x iβ ex i β xij e x iβ 1 + e x iβ i=1 n i Π i (1 Π i )x ij x ik Likelihood = n i=1 n i! y i! (n i y i )! Πy i i (1 Π i ) n i y i l (β) = X (y µ), l (β) = XWX, 34
35 donde Newton Raphson resulta: W = diag(n i Π i (1 Π i )). β (t+1) = β (t) + ( X W (t) X ) 1 X ( y µ (t)). Si como antes, pensamos a Y como la proporción de éxitos en los n i ensayos, tendríamos n i Y i Bi(n i, Π i ). Tenemos que V ar(y i ) = Π i(1 Π i ). La función de varianza n i resulta: Bajo el modelo logístico V (Π i ) = Π i (1 Π i ). η i Π i = 1 Π i (1 Π i ), 35
36 por lo tanto W = diag (n i Π i (1 Π i )). Por último la variable dependiente ajustada es: z i = η i + y i Π i Π i (1 Π i ) = x iβ + y i Π i Π i (1 Π i ). Intervalos de Confianza y Tests de Hipótesis Dos de las herramientas más usada de la inferencia estadística son los intervalos de confianza y los tests de hipótesis. Por ejemplo, los tests de hipótesis son necesarios para comparar el ajuste de dos modelos ajustados a los datos. Tanto para realizar tests como intervalos de confianza necesitamos las distribuciones muestrales de los estadísticos involucrados. Distribución Asintótica Haremos una deducción heurística de la distribución asintótica. Fahrmeir y 36
37 Kaufmann (1985, Annals of Statistics, 13, ) deducen la consistencia y la distribución asintótica de los estimadores de máxima verosimilitud en el GLM bajo condiciones de regularidad allí establecidas. Sea I n = I n (β 0 ) = D V 1 D donde = µ i β j V = Diag(V (µ i )) D ij evaluadas en β 0 Fahrmeir y Kaufmann (1985) probaron que si (D) (Diveregencia) λ min (I n ) (C) (Cota inferior) Para todo δ > 0 I n (β) ci n es semidefinida positiva para todo β N n (δ) si n n 1 (δ), donde N n (δ) es un entorno de β 0 y c es independiente de δ. 37
38 (N) (Convergencia y Continuidad) Para todo δ > 0 máx V n(β) I 0 β N n (δ) donde V n (β) = In 1/2 I n (β)in 1/2 es una matriz de información normalizada. Existencia y Consistencia Entonces, bajo (C) y (D) exite el EMV β y además Distribución Asintótica Entonces, bajo (D) y (N) existe β n p β 0 y (I n ) 1/2 U D N(0, I) (I n ) 1/2 ( β n β 0 ) D N(0, I) 38
39 En la práctica, usaremos como matriz de covarianza asintótica a I n ( β n ) Esto nos servirá para deducir intervalos de confianza para los parámetros y para deducir tests tipo Wald en tanto ( β n β 0 ) I n ( β n ) ( β n β 0 ) (a) χ 2 p. Por lo que ya vimos, entonces para n es suficientemente grande ( β n β 0 ) (a) N(O, (X WX) 1 ). Para n sufcientemente grande, una aproxímación razonable esperamos que sea siendo ( β n β 0 ) (a) N(O, V( β n )), V( β n ) = (X W( β n )X). Si queremos computar un intervalo de confianza de nivel asintótico 1 α para 39
40 β j, éste será: β nj ± z α σ( β nj ), siendo σ( β j ) = [ V( β) ] 1/2 jj. Inferencia acerca de una función de los coeficientes Para una función lineal de los prámetros Ψ = a β 0, una aproximación razonable para n suficientemente grande es (a β n a β 0 ) (a) N(O, a V( β n )a). Para una función no lineal Ψ = g(β 0 ), para n grande tendremos donde hemos notado g (1) al Jacobiano de g. g( β n ) (a) N(g(β 0 ), g (1) ( β n ) V( β n )g (1) ( β n )), 40
41 Ejemplo Supongamos un problema de dosis respuesta en el que un grupo de animales son expuestos a una sustancia peligrosa en distintas concentraciones. Sea n i el número de animales que recibe la dosis i, Y i el número de animales que muere y por lo tanto p i = Y i /n i la proporción de muertos en el i ésimo grupo. Llamemos Π i a la probabilidad de muerte y modelemos a Π i en términos de z i = log 10 (concentración). Proponemos el modelo: logit(π i ) = β 0 + β 1 z i. Un parámetro de interés en estos problemas suele ser el valor de z para el cual se obtiene el 50 % de muertes. Llamemos a dicho valor M 50. Como logit(1/2) = 0, tenemos que M 50 = β 0 β 1. Por lo tanto, M 50 β 0 = 1 β 1 41
42 M 50 β 1 = β 0 β 1 2 β 0 La varianza estimada de es β 1 1, β 1 β 0 β 2 1 ( X ŴX ) 1 1 β 1 β 0 β1 2, donde Ŵ = diag(n i Π i (1 Π i )). Tests de Hipótesis En el contexto de GLM abordaremos el problema de comparar dos modelos cuando tienen la misma distribución subyacente y la misma función link. Consideraremos la comparación de dos modelos anidados, es decir la diferencia entre los dos modelos será que la componente lineal de un modelo tendrá más 42
43 parámetros que el otro. El modelo más simple, que corresponderá a H o, será un caso especial de un modelo más general. Si el modelo más simple ajusta a los datos tan bien como el más general, entonces, en virtud del principio de parsimonía no rechazaremos H o. Si el modelo más general ajusta significativamente mejor, rechazaremos H o en favor de H 1, que corresponde al modelo más general. Para realizar estas comparaciones deberemos usar medidas de bondad de ajuste. Las medidas de bondad de ajuste pueden basarse en en el máximo valor de la función de verosimilitud, en el máximo valor del log de la función de verosimilitud, en el mínimo valor de la suma de cuadrados o en un estadístico combinado basado en los residuos. El proceso de comparación será como siempre: 1. Especificamos un modelo M o correspondiente a H o y un modelo más general, M 1, que corresponde a H Ajustamos M o y calculamos el estadístico de bondad de ajuste G o. Idem con M 1 y su correspondiente G Computamos la mejoría G1 G o (eventualmente G 1 /G o ). 43
44 4. A partir de la distribución de G1 G o testeamos H o vs. la alternativa H 1, es decir M o vs. M Si la hipótesis H o no es rechazada, preferimos el modelo M o. Si rechazamos H o elegiremos M 1. Estadístico de Cociente de Verosimilitud El modelo con el máximo número de parámetros que pueden ser estimados se conoce como modelo saturado. Es un GLM con la misma distribución subyacente y la misma función de enlace que el modelo de interés, que podría tener tantos parámetros como observaciones. Si hay observaciones que tienen las mismas covariables (replicaciones), el modelo saturado podría determinarse con menos de n parámetros. Llamemos m al máximo número de parámertos que puede especificarse. En el modelo saturado los µ justan exactamente a los datos. Por lo tanto, en el modelo saturado se asigna toda la variación a la componente sistemática y ninguna a la componente aleatoria. Este modelo no no se usa ya que no resume la información presente en los datos, pero provee una base para medir la discrepancia para un modelo intermedio entre el modelo saturado y el modelo nulo, en el que hay un único parámetro para todas las observaciones. 44
45 Si llamamos θ s al al valor estimado bajo el modelo saturado, el L( θ s, y), likelihood evaluado en dicho estimador, tomará el valor más grande posible para estas observaciones, asumiendo la misma distribución subyacente y la misma función de enlace. Sea L( θ, y) el máximo valor del likelihood para el modelo de interés. El cociente de verosimilitud será λ = L( θ s, y) L( θ, y), que nos da una idea de cuán bueno es el ajuste del modelo. En la práctica se usa el logaritmo de este cociente log(λ) = l( θ s, y) l( θ, y). Grandes valores de log(λ) sugieren un pobre ajuste del modelo respecto al modelo saturado. Un estadístico cercano y muy usado en el contexto de GLM es la deviance, introducida por Nelder y Wedderburn (1972). 45
46 La deviance se define como D = 2 [ l( θ s, y) l( θ, y) ] D = 2 n i=1 a 1 i (φ){y i ( θ si θ i ) b( θ si ) + b( θ i )}. Nota: A veces es conveniente expresar el log likelihood en términos de las medias µ s más que de β o θ. En ese caso llamaríamos l( µ, y) al likelihood maximizado sobre β, mientras que el máximo alcanzado en el modelo saturado sería l(y, y). Ejemplos Caso Normal Recordemos que θ = µ, b(θ) = θ2 2, Φ = σ2 (w i = 1). Entonces D = 2 n i=1 (y i(y i µ i ) 1 2 y2 i µ2 i ) = n i=1 (y i µ i ) 2. 46
47 Caso Binomial Recordemos que θ = log ( Π 1 Π ), es decir Π = e θ 1+e θ, b(θ) = log(1 Π) = log(1 + e θ ), entonces D = 2 n n i{ y i ( θ si θ i ) b(( θ si ) + b( θ i )} i=1 n i = 2 n i=1 n i y i n i log y i /n i 1 y i /n i log log(1 y i ) log(1 Π i ) n i = 2 n i=1 Π i 1 Π i + y i log y i/n i + y i log 1 Π i + log 1 y i/n i Π i 1 y i /n i 1 Π i = 2 n y i log y i/n i + (1 y i ) log 1 y i/n i i=1 Π i 1 Π i = 2 n i=1 y i log y i + (n i y i ) log n i y i µ i n i µ i Para realizar los tests de bondad de ajuste debemos conocer la distribución 47
48 de D. Heurísticamente podríamos deducir la la distribución de D. Si hacemos un desarrrollo de Taylor de segundo orden tenemos que: l(β) l(b) + (β b) U(b) 1 2 (β b) I(b)β b). donde U = (U 1,..., U p ) U j = l(β, y) β j = n i=1 = n i=1 l i (β, y i ) β j (Y i µ i ) var(y i ) E(U) = 0 E(UU ) = I, µ i η j x ij j = 1,..., p. siendo I la matriz de información de Fisher. Si b es el punto donde l alcanza su máximo, entonces l(β) l(b) 1 2 (β b) I(b)β b). 48
49 Por lo tanto 2(l(b) l(β)) (β b) I(b)β b). y en consecuencia, para n suficientemente grande de este resultado, obtenemos l(β) l(b) (a) χ 2 p. Luego, siendo D = 2 [ l( β s, y) l( β, y) ] = 2 [ l( β s, y) l(β s, y) ] 2 [ l( β, y) l(β, y) ] + 2 [l(β s, y) l(β, y)] D (a) χ 2 m p,ν, 49
50 ν = 2 [l(β s, y) l(β, y)], donde ν es una constante positiva cercana a 0 si el modelo propuesto ajusta a los datos tan bien como el modelo saturado. En el caso particular de la distribución binomial demostraremos este límite usando las aproximaciones que ya vimos. Teorema. Bajo las condiciones de regularidad supuestas para los resultados de convergencia de los tests χ 2 y G 2 y suponiendo que Π 0 = Π(θ, 0), entonces G 2 (M 0 ) G 2 (M 1 ) D χ 2 ν 1 ν 0 donde ν 1 = dim(θ, ψ) ν 0 = dim(θ, 0) Usaremos en la demostración el resultado dadopor el siguiente Teorema: Sea Y un vector con distribución N(ν, Σ). Una condición necesaria y suficiente para que (Y ν) C(Y ν) tenga distribución χ 2 es que ΣCΣCΣ = ΣCΣ, donde los grados de libertad serán el rango de CΣ (si Σ es no singular la condición se simplifica a CΣC = C). (Rao, 1965, p. 150) 50
51 Aplicaciones a Test de Hipótesis Consideremos la hipótesis nula: y una hipótesis más general H 0 : β = β 0 = (β 01,..., β 0q ) H 1 : β = β 1 = (β 01,..., β 0p ), con q < p < n. Si testeamos H 0 vs. H 1 usando la diferencia de los estadísticos de cociente del logaritmo de la verosimilitud tenemos D = D 0 D 1 = 2 [ l( β s, y) l( β 0, y) ] 2 [ l( β s, y) l( β 1, y) ] = 2 [ l( β 1, y) l( β 0, y) ]. Compararíamos a D con una χ 2 p q ya que bajo H 0 tendríamos que D (a) χ 2 p q. 51
52 Si el valor observado de D fuera mayor que el percentil χ 2 p q,α rechazaríamos a H 0 en favor de H 1, bajo el supuesto de que H 1 da una mejor descripción de los datos (aún cuando H 1 no provea un muy buen ajuste). 52
53 Ejemplo: los siguientes datos corresponden a un experimento de dosis respuesta en el que 5 grupos de 6 animales fueron expuestos a una sustancia peligrosa (Schafer, 2000). Y i denota al número de animales que murieron al ser expuestos a la i ésima dosis. obs. x i = log 10 concentrac. y i n i y i y i /n i Π i El comando S plus que usamos es: salida< glm(sf logdosis, family=binomial) 53
54 yy<- c(0,1,4,6,6) sf<- cbind(yy,6-yy) logdosis<- -c(5:1) salida<- glm(sf~logdosis,family=binomial) summary(salida) Call: glm(formula = sf ~ logdosis, family = binomial) Deviance Residuals: Coefficients: Value Std. Error t value (Intercept) logdosis (Dispersion Parameter for Binomial family taken to be 1 ) Null Deviance: on 4 degrees of freedom 54
55 Residual Deviance: on 3 degrees of freedom Number of Fisher Scoring Iterations: 5 Correlation of Coefficients: (Intercept) logdosis salida$deviance [1] pchisq(salida$deviance,3) [1] pchisq(salida$deviance,3) [1]
56 Resumiendo Call: glm(formula = SF logdosis, family = binomial) Deviance Residuals: Coefficients: Value Std. Error t value (Intercept) logdosis Null Deviance: on 4 degrees of freedom Residual Deviance: on 3 degrees of freedom Number of Fisher Scoring Iterations: 5 Correlation of Coefficients: (Intercept) logdosis
57 57
58 En el caso de la binomial el test G 2 es: G 2 = 2 N i=1 y i log y i + (n i y i ) log µ i n i y i n i µ i Otra medida importante de discrepancia es el estadístico generalizado de Pearson χ 2, que es de la forma χ 2 (y = i µ i ) 2 = N (y i n i πi ) 2 V (Y i ) i=1 n i πi (1 π i ), donde V ( µ i ) es la función de varianza estimada para la distribución subyacente. Para la distribución Normal, χ 2 es la suma de cuadrados habitual. Tanto la deviance como el estadístico χ 2 tienen distribución exacta χ 2 bajo normalidad y sólo obtenemos resultados asintóticos bajo otras distribuciones. 58
59 La ventaja de la deviance como medida de discrepancia es que es aditiva para modelos anidados si se usan estimadores de máxima verosimilitud, mientras que en general χ 2 no es aditiva. 59
Modelos lineales generalizados
GoBack Modelos lineales Guillermo Ayala Gallego Universidad de Valencia 20 de enero de 2009 1 / 57 Verosimilitud de Ajuste de un GLM mediante Fisher Scoring Method s de un modelo lineal generalizado Identifica
Análisis de datos Categóricos
Introducción a los Modelos Lineales Generalizados Universidad Nacional Agraria La Molina 2016-1 Introducción Modelos Lineales Generalizados Introducción Componentes Estimación En los capítulos anteriores
Cálculos de Regresión Logística en R, Caso de una covariable.
Cálculos de Regresión Logística en R, Caso de una covariable. Carga de datos (Tabla 1.1, Hosmer-Lemeshow): CH=read.table( CHDAGE.txt,header = T) attach(ch) Gráfico de Dispersión: plot(age,chd,xlab= Edad,
Modelo Lineal Generalizado GAMMA. Distribución gamma: Otra parametrización mediante el parámetro de forma y la media:
Modelo Lineal Generalizado GAMMA Distribución gamma: Otra parametrización mediante el parámetro de forma y la media: La distribución gamma es de tipo exponencial: 1 Supongamos que se dispone de r subpoblaciones
Análisis de Datos Categóricos. Leticia Gracia Medrano
Análisis de Datos Categóricos Leticia Gracia Medrano ii Contents 1 Modelo Logístico 1 1.1 Estimación de parámetros.................... 1 1.2 Interpretación de los parámetros................. 2 1.3 Ejemplo..............................
Mathias Bourel. 2 de octubre de 2016
Regresión Logística Mathias Bourel IMERL - Facultad de Ingeniería, Universidad de la República, Uruguay 2 de octubre de 2016 M.Bourel (IMERL, UdelaR) Regresión Logística 2 de octubre de 2016 1 / 28 Introducción
Regresión Lineal Múltiple
Unidad 4 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Regresión Semestre 2017-2 1 / 35 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable respuesta
Modelos Lineales Generalizados
Modelos Lineales Generalizados 1 DefinicióndeunMLG Y1,Y2,...,Yn,conmediasµ1,µ2,...,µn,Yi, i=1,...,n,tienefdpmiembrodela familia exponencial a un parámetro, con las siguientes propiedades: 1.LadistribucióndecadaunodelosYi,paratodoi,estáenlaformacanónica,i.e.:
j = 1,..., q donde i rs = {I 1 } rs Z j = N p i π i (θ 0 ) θ j
MLG Ana M. Bianco FCEyN 2008 75 Comenzaremos por probar el siguiente resultado auxiliar. Lema: Supongamos que θ 0, valor verdadero del parámetro, es un punto interior del espacio paramétrico, π i (θ 0
Estimación Bayesiana en el modelo lineal generalizado
Estimación Bayesiana en el modelo lineal generalizado Hernando Alvarado Quintero and Fabian Guillermo Rojas Rodríguez Universidad Nacional de Colombia [email protected] and [email protected] July
g(e (y)) = α + β 1 x β k x k
Modelos lineales generalizados Especifica la función para E (y) = μ g(.) = Función liga o conectora Conecta los componentes aleatorio y sistemático g(e (y)) = α + β 1 x 1 + + β k x k Componente Aleatorio
Propiedades Una distribución pertenece a la familia exponencial si su función de densidad puede expresarse como:
Familia Exponencial Propiedades Una distribución pertenece a la familia exponencial si su función de densidad puede expresarse como: f (y; θ) = s(y)t(θ)exp[a(y)b(θ)] = exp[a(y)b(θ)+c(θ)+d(y)] (1) con s(y)
1. Modelos para conteos
1. Modelos para conteos En esta sección se modelarán conteos, que resultan de diversas situaciones, por ejemplo: el número de accidentes en una carretera, el número de caries que tiene una persona, el
Modelos de suavizado, aditivos y mixtos
Carmen Armero 1 de junio de 2011 Introducción Introducción Modelos lineales, LM Modelos aditivos, AM Modelos lineales generalizados, GLM GAM I Un modelo lineal generalizado (GAM) es un modelo lineal generalizado
Modelos de elección discreta Aplicaciones en ordenador
Modelos de elección discreta Aplicaciones en ordenador Román Salmerón Gómez Para ilustrar cómo abordar el análisis de Modelos de elección discreta con el software econométrico Gretl resolveremos el siguiente
MLG Ana M. Bianco FCEyN
MLG Ana M. Bianco FCEyN 2008 44 Propiedades de los Estimadores de Máxima Verosimilitud Recordemos que si la variable aleatoria Y tiene función de densidad (f.d.)o probabilidad puntual (f.p.p.)f(y, θ),
Métodos Estadísticos Multivariados
Métodos Estadísticos Multivariados Victor Muñiz ITESM Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre 2011 1 / 20 Victor Muñiz (ITESM) Métodos Estadísticos Multivariados Agosto-Diciembre
Guillermo Ayala Gallego Universidad de Valencia
GoBack Regresión logística Guillermo Ayala Gallego Universidad de Valencia 4 de febrero de 2009 1 / 22 Puede que sea el procedimiento estadístico más utilizado. Con aplicaciones frecuentes en Medicina
Econometría Aplicada
Econometría Aplicada y función de Verosimilitud Víctor Medina Los objetivos de esta parte del curso principalmente son: 1. Dar algunos ejemplos de decisiones económicas donde la variable dependiente es
Regresión múltiple. Demostraciones. Elisa Mª Molanes López
Regresión múltiple Demostraciones Elisa Mª Molanes López El modelo de regresión múltiple El modelo que se plantea en regresión múltiple es el siguiente: y i = β 0 + β 1 x 1i + β 2 x 2i +...+ β k x ki +
Tema1. Modelo Lineal General.
Tema1. Modelo Lineal General. 1. Si X = (X 1, X 2, X 3, X 4 ) t tiene distribución normal con vector de medias µ = (2, 1, 1, 3) t y matriz de covarianzas 1 0 1 1 V = 0 2 1 1 1 1 3 0 1 1 0 2 Halla: a) La
Tema 13: Regresión Logística p. 1/20 Tema 13: Regresión Logística Abdelmalik Moujahid, Iñaki Inza y Pedro Larrañaga Departamento de Ciencias de la Computación e Inteligencia Artificial Universidad del
Tema 6: Introducción a la Inferencia Bayesiana
Tema 6: Introducción a la Inferencia Bayesiana Conchi Ausín Departamento de Estadística Universidad Carlos III de Madrid [email protected] CESGA, Noviembre 2012 Contenidos 1. Elementos básicos de
ECONOMETRÍA II Prof.: Begoña Álvarez TEMA 1 INTRODUCCIÓN. Estimación por máxima verosimilitud y conceptos de teoría asintótica
ECONOMETRÍA II Prof.: Begoña Álvarez 2007-2008 TEMA 1 INTRODUCCIÓN Estimación por máxima verosimilitud y conceptos de teoría asintótica 1. ESTIMACIÓN POR MÁXIMA VEROSIMILITUD (MAXIMUM LIKELIHOOD) La estimación
Comportamiento asintótico de estimadores
Comportamiento asintótico de estimadores Seguimos con variable X con función de densidad/masa f (x; θ). Queremos estimar θ. Dada una muestra aleatoria, definimos un estimador T = h(x 1,..., X n ) Esperamos/deseamos
Regresión lineal simple
Regresión lineal simple Unidad 1 Javier Santibáñez IIMAS, UNAM [email protected] Semestre 2018-2 Javier Santibáñez (IIMAS, UNAM) Regresión simple Semestre 2018-2 1 / 62 Contenido 1 Planteamiento
peso edad grasas Regresión lineal simple Los datos
Regresión lineal simple Los datos Los datos del fichero EdadPesoGrasas.txt corresponden a tres variables medidas en 25 individuos: edad, peso y cantidad de grasas en sangre. Para leer el fichero de datos
ANÁLISIS DE REGRESIÓN
ANÁLISIS DE REGRESIÓN INTRODUCCIÓN Francis Galtón DEFINICIÓN Análisis de Regresión Es una técnica estadística que se usa para investigar y modelar la relación entre variables. Respuesta Independiente Y
Análisis de la Varianza (ANOVA) y Correlación
Universidad de Chile Rodrigo Assar FCFM MA34B Andrés Iturriaga DIM Víctor Riquelme Análisis de la Varianza (ANOVA) y Correlación Resumen El test ANOVA analiza la relación entre una variable numérica y
Algunos Problemas y Soluciones en el Análisis de Experimentos Ajustados con MLG s.
Algunos Problemas y Soluciones en el Análisis de Experimentos Ajustados con MLG s. Víctor Aguirre Torres Departamento de Estadística, ITAM. Seminario de Estadística, CIMAT. 5 de Nov 2007. Créditos Trabajo
Econometría Aplicada
Econometría Aplicada Inferencia estadística, bondad de ajuste y predicción Víctor Medina Intervalos de confianza Intervalos de confianza Intervalos de confianza Intervalos de confianza La pregunta que
Auxiliar 9. MNL y MLE. Daniel Olcay. 21 de octubre de 2014 IN4402. Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de / 13
Auxiliar 9 MNL y MLE Daniel Olcay IN4402 21 de octubre de 2014 Daniel Olcay (IN4402) Auxiliar 9 21 de octubre de 2014 1 / 13 Índice Modelos no lineales Probabilidad lineal Probit Logit Máxima verosimilitud
Tema 4: Otros Métodos de Análisis de Datos Cuantitativos y Cualitativos
Tema 4: Otros Métodos de Análisis de Datos Cuantitativos y Cualitativos Metodología de la Investigación en Fisioterapia Miguel González Velasco Departamento de Matemáticas. Universidad de Extremadura M.
Análisis de datos Categóricos
Introducción Universidad Nacional Agraria La Molina 2017-1 Variable cualitativa Variable respuesta cualitativa Variable respuesta y explicativa Variable de conteo y proporción Escalas de medición Una variable
MODELOS LINEALES GENERALIZADOS
MODELOS LINEALES GENERALIZADOS Conceptos básicos Ignacio Méndez Gómez-Humarán [email protected] Los Modelos Lineales Generalizados (GLM por sus siglas en inglés) son una familia de modelos estadísticos
Tema 3 Normalidad multivariante
Aurea Grané Máster en Estadística Universidade Pedagógica Aurea Grané Máster en Estadística Universidade Pedagógica Tema 3 Normalidad multivariante 3 Normalidad multivariante Distribuciones de probabilidad
El Bootstrap paramétrico y no parametrico y su aplicación en los modelos log-lineal Poisson
El Bootstrap paramétrico y no parametrico y su aplicación en los modelos log-lineal Poisson Antonio Bravo Quiroz * Universidad Ricardo Palma 23 de noviembre de 2017 Índice 1. Conceptos Preliminares 6 1.1.
Estadística Computacional. M. González
Estadística Computacional M. González Facultad de Medicina. Universidad de Extremadura M. González (UEx) Estadística Computacional 1 / 23 Índice Modelos Lineales Generalizados Bioensayos: Modelos Dosis-Respuesta
Clasificación y regresión logística
Clasificación y regresión logística José R. Berrendero Universidad Autónoma de Madrid Contenidos Planteamiento del problema de clasificación supervisada Regla lineal de Fisher Regresión logística Optimalidad:
2.3. Análisis bayesiano para datos normales
2.3. Análisis bayesiano para datos normales 87 2.3. Análisis bayesiano para datos normales Otra de las situaciones más frecuentes en la práctica estadística es aquella en la que nos encontramos con datos
Estadística II Tema 4. Regresión lineal simple. Curso 2009/10
Estadística II Tema 4. Regresión lineal simple Curso 009/10 Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores
Preparación de los datos de entrada
Preparación de los datos de entrada Clase nro. 6 CURSO 2010 Objetivo Modelado de las características estocásticas de los sistemas. Variables aleatorias con su distribución de probabilidad. Por ejemplo:
Selección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Patricia Kisbye FaMAF 6 de mayo, 2010 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
Econometría Avanzada FLACSO 2014
Econometría Avanzada FLACSO 2014 Hemos cubierto: Mapa Planteamiento de una pregunta económica de interés Diferencias entre econometría y estadística Métodos: Lineales (MCO) revisión, variables instrumentales
1. Conceptos de Regresión y Correlación. 2. Variables aleatorias bidimensionales. 3. Ajuste de una recta a una nube de puntos
TEMA 10 (curso anterior): REGRESIÓN Y CORRELACIÓN 1 Conceptos de Regresión y Correlación 2 Variables aleatorias bidimensionales 3 Ajuste de una recta a una nube de puntos 4 El modelo de la correlación
MLG Ana M. Bianco FCEyN
MLG Ana M. Bianco FCEyN 2008 81 Qué podemos hacer cuando la variable es continua o discreta con muchos valores posibles? El siguiente ejemplo corresponde al TP4 y se ha registrado la variable edad en forma
Tema 4. Regresión lineal simple
Tema 4. Regresión lineal simple Contenidos El objeto del análisis de regresión La especificación de un modelo de regresión lineal simple Estimadores de mínimos cuadrados: construcción y propiedades Inferencias
Modelación estadística: La regresión lineal simple
Modelación estadística: La regresión lineal simple Gabriel Cavada Ch. 1 1 División de Bioestadística, Escuela de Salud Pública, Universidad de Chile. Statistical modeling: Simple linear regression Cuando
T3. El modelo lineal básico
T3. El modelo lineal básico Ana J. López y Rigoberto Pérez Dpto Economía Aplicada. Universidad de Oviedo Curso 2010-2011 Curso 2010-2011 1 / 41 Índice 1 Regresión lineal múltiple Planteamiento Hipótesis
Los estimadores mínimo cuadráticos bajo los supuestos clásicos
Los estimadores mínimo cuadráticos bajo los supuestos clásicos Propiedades estadísticas e inferencia Mariana Marchionni [email protected] Mariana Marchionni MCO bajo los supuestos clásicos 1
ANALISIS FACTORIAL. Jorge Galbiati R.
ANALISIS FACTORIAL Jorge Galbiati R El análisis factorial es un modelo matamático que pretende explicar la correlación entre un conjunto grande de variables observadas y un pequeño conjunto de factores
Estimación Máxima Verosimilitud
Estimación Máxima Verosimilitud Microeconomía Cuantitativa R. Mora Departmento of Economía Universidad Carlos III de Madrid Outline Motivación 1 Motivación 2 3 4 5 Estrategias generales de estimación Hay
Regresión Lineal. 15 de noviembre de Felipe Bravo Márquez
Felipe José Bravo Márquez 15 de noviembre de 2013 Introducción Un modelo de regresión se usa para modelar la relación de una variable dependiente y numérica con n variables independientes x 1, x 2,...,
2 Introducción a la inferencia estadística Introducción Teoría de conteo Variaciones con repetición...
Contenidos 1 Introducción al paquete estadístico S-PLUS 19 1.1 Introducción a S-PLUS............................ 21 1.1.1 Cómo entrar, salir y consultar la ayuda en S-PLUS........ 21 1.2 Conjuntos de datos..............................
Javier Roca Pardiñas Prof. Titular de Universidade Dpto. Estatística e I.O. Universidade de Vigo
Javier Roca Pardiñas Prof. Titular de Universidade Dpto. Estatística e I.O. Universidade de Vigo 30/10/2013 Modelos Logísticos de Regresión de Respuesta Binaria Índice 1. Planteamiento de modelo 2. Estimación
Multicolinealidad Introducción. Uno de los supuestos básicos del modelo lineal general. y = Xβ + u
CAPíTULO 6 Multicolinealidad 6.1. Introducción Uno de los supuestos básicos del modelo lineal general y = Xβ + u establece que las variables explicativas son linealmente independientes, es decir, la igualdad
Part VII. Estadística I. Mario Francisco. Introducción a la inferencia. Estimación puntual. Propiedades deseables de los estimadores
Part VII La inferencia puede definirse como el conjunto de métodos mediante cuales podemos extraer información sobre distintas características de interés de cierta distribución de probabilidad de la cual
Modelos de regresión
Modelos de regresión Aprendizaje automático Alejandra Martínez F.C.E. y N. Universidad de Buenos Aires y CONICET Introducción Un modelo de regresión es un modelo que permite describir cómo influye una
Agro 6998 Conferencia 2. Introducción a los modelos estadísticos mixtos
Agro 6998 Conferencia Introducción a los modelos estadísticos mixtos Los modelos estadísticos permiten modelar la respuesta de un estudio experimental u observacional en función de factores (tratamientos,
1 El Análisis de Varianza
1 El Análisis de Varianza Objetivo: Explicar (controlar las variaciones de una v.a. Y continua (numérica, mediante factores (variables cualitativas que definen categorías que controlamos (no aleatorios.
Estadística para la Economía y la Gestión IN 3401
Estadística para la Economía y la Gestión IN 3401 3 de junio de 2010 1 Modelo de Regresión con 2 Variables Método de Mínimos Cuadrados Ordinarios Supuestos detrás del método MCO Errores estándar de los
Estadística Bayesiana
Universidad Nacional Agraria La Molina 2017-1 Teoría de la decisión Riesgo de Bayes La teoría de decisión es un área de suma importancia en estadística ya que muchos problemas del mundo real pueden tomar
Definición Una hipótesis es una afirmación acerca de un parámetro.
Capítulo 8 Prueba de hipótesis Existen dos áreas de interés en el proceso de inferencia estadística: la estimación puntual y las pruebas de hipótesis. En este capítulo se presentan algunos métodos para
Regresión Lineal Múltiple
Unidad 3 Regresión Lineal Múltiple Javier Santibáñez (IIMAS, UNAM) Estadística II Semestre 2018-1 1 / 54 Introducción La idea de la regresión lineal múltiple es modelar el valor esperado de la variable
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación. Facultad de Ciencias Sociales, UdelaR
Estadística y sus aplicaciones en Ciencias Sociales 5. Estimación Facultad de Ciencias Sociales, UdelaR Índice 1. Repaso: estimadores y estimaciones. Propiedades de los estimadores. 2. Estimación puntual.
Técnicas de Muestreo Métodos
Muestreo aleatorio: Técnicas de Muestreo Métodos a) unidad muestral elemental: a.1) muestreo aleatorio simple a.2) muestreo (seudo)aleatorio sistemático a.3) muestreo aleatorio estratificado b) unidad
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS. Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú
UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS FACULTAD DE CIENCIAS MATEMÁTICAS E.A.P. DE. ESTADÍSTICA Modelos Probit y Tobit aplicados al estudio de la oferta laboral de los trabajadores secundarios en el Perú
Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74
Índice 1. Introducción al R 15 1.1. Introducción............................. 15 1.2. El editor de objetos R....................... 18 1.3. Datos en R............................. 19 1.3.1. Vectores...........................
Tema 2. Heterocedasticidad. 1 El modelo de regresión lineal con errores heterocedásticos
ema 2. Heterocedasticidad. El modelo de regresión lineal con errores heterocedásticos En este tema vamos a analizar el modelo de regresión lineal Y t = X tβ + u t, donde X t = (X t, X 2t,.., X kt y β =
Tema 9. Análisis factorial discriminante
Máster en Técnicas Estadísticas Análisis Multivariante. Año 2008 2009. Profesor: César Sánchez Sellero. 9.1. Introducción. Tema 9. Análisis factorial discriminante Supongamos que están denidos I grupos,
Estadística aplicada al medio ambiente
Estadística aplicada al medio ambiente III. Regresión lineal 3 o de CC. AA. Departamento de Matemáticas Universidad Autónoma de Madrid 2011/12 Planteamiento Modelo Estimación de parámetros Intervalos de
Relación 3 de problemas
ESTADÍSTICA II Curso 2016/2017 Grado en Matemáticas Relación 3 de problemas 1. La Comunidad de Madrid evalúa anualmente a los alumnos de sexto de primaria de todos los colegios sobre varias materias. Con
ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M.
1 Introducción ESTIMACIÓN PUNTUAL Julián de la Horra Departamento de Matemáticas U.A.M. En este capítulo, vamos a abordar la Estimación Puntual, que es uno de los tres grandes conjuntos de técnicas que
TEMA 2 Diseño de experimentos: modelos con varios factores
TEMA 2 Diseño de experimentos: modelos con varios factores José R. Berrendero Departamento de Matemáticas Universidad Autónoma de Madrid Análisis de Datos - Grado en Biología Esquema del tema Modelo bifactorial
Modelos Estocásticos I Tercer Examen Parcial Respuestas
Modelos Estocásticos I Tercer Examen Parcial Respuestas. a Cuál es la diferencia entre un estado recurrente positivo y uno recurrente nulo? Cómo se define el período de un estado? Demuestre que si el estado
Regresión lineal. Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística
Regresión lineal Marcelo Rodríguez Ingeniero Estadístico - Magíster en Estadística Universidad Católica del Maule Facultad de Ciencias Básicas Pedagogía en Matemática Estadística I 01 de enero de 2012
Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas
Estadística Tema 2 Variables Aleatorias 21 Funciones de distribución y probabilidad 22 Ejemplos distribuciones discretas y continuas 23 Distribuciones conjuntas y marginales 24 Ejemplos distribuciones
Tests de Hipotesis en Base al Principio de Verosimilitud
Tests de Hipotesis en Base al Principio de Verosimilitud Universidad de San Andres, Argentina Conceptos basicos Y f(y; θ), θ Θ R K. θ es un vector de K parametros. Θ es el espacio de parametros : conjunto
Regresión ponderada y falta de ajuste
Capítulo 4 Regresión ponderada y falta de ajuste 4.1. Introducción En este capítulo se presentan la regresión ponderada y la prueba de falta de ajuste como un conjunto adicional de herramientas usadas
Regresión Lineal Simple y Múltiple Regresión Logística
Regresión Lineal Simple y Múltiple Regresión Logística Miguel González Velasco Departamento de Matemáticas. Universidad de Extremadura MUI en Ciencias de la Salud MUI en Ciencias de la Salud (UEx) Regresión
Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones
CAPÍTULO 3: DISTRIBUCIONES CON- JUGADAS Para leer Lee, Capítulo 3, Secciones 3.1,3.2,3.4 y 3.5. Gelman et al, Capítulo 2, Secciones 2.4 2.7. Ejemplo 18 Supongamos que en la situación del Ejemplo 13, se
Teóricas de Análisis Matemático (28) - Práctica 8 - Polinomio de Taylor
Práctica 8 Polinomio de Taylor. Polinomio de Taylor El análisis completo de una función puede resultar muy difícil. Una forma de abordar este problema es aproximar la función por una más sencilla. En este
Econometría II. Hoja de Problemas 1
Econometría II. Hoja de Problemas 1 Nota: En todos los contrastes tome como nivel de significación 0.05. 1. SeanZ 1,...,Z T variables aleatorias independientes, cada una de ellas con distribución de Bernouilli
viii CAPÍTULO 2 Métodos de muestreo CAPÍTULO 3 Análisis exploratorio de datos
Contenido Acerca de los autores.............................. Prefacio.... xvii CAPÍTULO 1 Introducción... 1 Introducción.............................................. 1 1.1 Ideas de la estadística.........................................
Selección de distribuciones de probabilidad
Selección de distribuciones de probabilidad Georgina Flesia FaMAF 3 de mayo, 2012 Análisis estadístico de datos simulados Los sistemas reales tienen fuentes de aleatoriedad: Tipo de sistema Fabricación
