GoBack
Modelos lineales Guillermo Ayala Gallego Universidad de Valencia 20 de enero de 2009 1 / 57
Verosimilitud de
Ajuste de un GLM mediante Fisher Scoring Method
s de un modelo lineal generalizado Identifica la variable respuesta Y y su distribución de probabilidad. sistemática Especifica las variables explicativas (independientes, predictoras) utilizadas en la función predictora lineal. Función link Especifica la función de EY que la expresa como una combinación lineal de las variables predictoras. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 2 / 57
La componente de un GLM consiste de una variable Y con observaciones independientes (y 1,...,y N ). Suponemos la distribución de Y en la familia exponencial natural. f(y i ;θ i ) = a(θ i )b(y i ) exp{y i Q(θ i )}. θ i varía para los distintos i dependiendo de los valores de las variables predictoras. Q(θ) recibe el nombre de parámetro natural. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 3 / 57
sistemática La componente sistemática de un GLM es el vector (η 1,...,η N ) η i = j β j x ij, con i = 1,...,N, donde x ij es el valor del j-ésimo predictor en el i-ésimo individuo. La combinación lineal j β jx ij es el predictor lineal. Como es habitual, se suele considerar que uno de los predictores x ij vale uno para todos los i de modo que consideramos el término independiente. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 4 / 57
Función link Mediante esta función relacionamos las componentes y sistemática. con i = 1,...,N g(µ i ) = j µ i = E(Y i ) η i = g(µ i ) β j x ij, con i = 1,...,N s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 5 / 57
Modelos logit binomiales para Tenemos respuesta binaria (éxito como 1 y fracaso como 0), esto es, Y Bin(1,π). f(y;π) = π y (1 π) 1 y = (1 π)[π/(1 π)] y = (1 π) exp ( y log ) π 1 π con y = 0, 1 El parámetro natural sería Q(p) = log p 1 p = logit(p) 6 / 57
Modelos loglineales Poisson para conteos La variable respuesta Y es un conteo (número de defectos, conteo en una tabla de contingencia) Asumimos Y Po(µ) donde EY = µ. con y = 0, 1,... El parámetro natural sería f(y;µ) = e µ µ y y! Q(µ) = log µ y la función link canónica η = log µ. = e µ 1 log µ ey y! 7 / 57
Desviación Los valores observados son y = (y 1,...,y N ) y el vector de medias µ = (µ 1,...,µ N ) Sea L(µ; y) la logverosimilitud. Sea L(ˆµ; y) el máximo de la logverosimilitud asumiendo el modelo. 8 / 57
Si utilizamos un parámetro distinto para cada observación entonces tendríamos el ajuste perfecto con ˆµ = y La logverosimilitud máxima L(y;y). El modelo con un parámetro por observación se llama un modelo saturado. No supone reducción alguna de los datos. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 9 / 57
La desviación es [ ] 2 L(ˆµ;y) L(y;y) Es el test del cociente de verosimilitud para contrastar el modelo que asumimos frente a la alternativa del modelo saturado. Cuando los conteos de Poisson o bien el número de pruebas las distintas binomiales con N fijo tenemos que aproximadamente [ ] 2 L(ˆµ;y) L(y;y) χ 2 (N p) s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para 10 / 57
Modelos lineales para s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 11 / 57
El modelo Y es una respuesta binaria. EY = P(Y = 1) y la denotamos por π(x) dependiente de x = (x 1,...,x p ). var(y ) = π(x)(1 π(x)). s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 12 / 57
Un ejemplo Enfermedad cardíaca Ronquido Si No Nunca 24 1355 Ocasionalmente 35 603 Casi cada noche 21 192 Cada noche 30 224 notar/notar008.pdf. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 13 / 57
GLM binomial y tablas 2 2 La variable predictora X es binaria. link[π(x)] = α + βx. El efecto de X viene descrito por β = link[π(1)] link[π(0)] s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 14 / 57
Con el link identidad: β = π(1) π(0) es la diferencia de proporciones. Con el link logarítmico: β = log π(1) log π(0) = log π(1) π(0) es el logaritmo del riesgo relativo. Con el link logit: β = logit(π(1)) logit(π(0)) = log es el logaritmo de los odds ratio. π(1)/(1 π(1)) π(0)/(1 π(0)) s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 15 / 57
Probit y otras funciones link Con un solo predictor parece natural el modelo π(x) = F(x) siendo F una función de distribución de probabilidad. Un caso particular: F(x) = Φ(x) siendo Φ(x) la función de distribución de la normal estándar entonces π(x) = Φ(α + βx) o equivalentemente Φ 1 (π(x)) = α + βx y tenemos un modelo probit. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para El modelo Un ejemplo GLM binomial y tablas 2 2 Probit y otras funciones link GLM para conteos Verosimilitud de Inferencia para 16 / 57
GLM para conteos s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 17 / 57 Verosimilitud de
Modelo Poisson loglineal Asumimos Y con distribución de Poisson. El modelo loglineal con variable explicativa X es En este modelo log µ = α + βx. µ = exp(α + βx) = e α ( e β ) x s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 18 / 57 Verosimilitud de
Ejemplo: cangrejos herradura Cada animal hembra tiene un macho en su nido. Pero puede tener más, los satélites. La variable respuesta es el número de satélites. Las variables explicativas son: color, estado de la columna vertebral, peso y anchura del caparazón. En un primer análisis solo consideramos la anchura del caparazón. notar/notar015.pdf: una nota muy larga por cierto. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 19 / 57 Verosimilitud de
Sobredispersión en GLM Poisson En una distribución de Poisson, la media y la varianza son iguales. Cuando trabajamos con conteos reales no suele ser cierta esta hipótesis. Con frecuencia la varianza es mayor que la media. A esto se le llama sobredispersión. Interpretación como mixturas de Poisson. No es un problema cuando Y tiene una distribución normal pues la normal tiene un parámetro que la modeliza. notar/notar023.pdf s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 20 / 57 Verosimilitud de
GLM binomiales negativos La densidad de la distribución binomial negativa es f(y;k,µ) = ( ) k ( Γ(y + k) k 1 Γ(k)Γ(y + 1) µ + k con y = 0, 1, 2,... donde k y µ son los parámetros. Se tiene que E(Y ) = µ, var(y ) = µ + µ 2 /k. k µ + k ) y s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 21 / 57 Verosimilitud de
El parámetro 1/k es un parámetro de dispersión. Si 1/k 0, entonces var(y ) µ y la distribución binomial negativa converge a una distribución de Poisson. Con k fijo esta densidad está en la familia exponencial natural y podríamos hablar de un GLM binomial negativo. notar/notar024.pdf s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Modelo Poisson loglineal Ejemplo: cangrejos herradura Sobredispersión en GLM Poisson GLM binomiales negativos GLM Poisson e independencia en tablas de contingencia I J 22 / 57 Verosimilitud de
GLM Poisson e independencia en tablas de contingencia I J Vamos a utilizar un modelo loglineal Poisson para modelizar conteos en tablas de contingencia. Suponemos que el conteo Y ij Po(µ ij ). Suponemos que µ ij = µα i β j siendo α i,β j 0 tales que i α i = 1 y j β j = 1. Si consideramos un log link tenemos log µ ij = log µ + log α i + log β j Se comprueba que si hay independencia tenemos que α i = π i+ y β j = π +j. 23 / 57
Verosimilitud de s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Familia de dispersión exponencial Media y varianza de la componente sistemática y la función link Ecuaciones de verosimilitud 24 / para 57un GLM
Familia de dispersión exponencial Tenemos (y 1,...,y N ) independientes. La variable y i tiene densidad en la familia de dispersión exponencial ([ ] ) f(y i ;θ i,φ) = exp y i θ i b(θ i ) /a(φ)+c(y i,φ) θ i es el parámetro natural. Si φ es conocido entonces la densidad anterior es de la familia exponencial natural. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Familia de dispersión exponencial Media y varianza de la componente sistemática y la función link Ecuaciones de verosimilitud 25 / para 57un GLM
Normal Poisson Binomial f(y) 1 2πσ exp( (y µ)2 ) 2σ 2 µ y e µ /y! ( n y) ( µ n n )n y θ µ log µ log(µ/(n µ)) φ σ 2 1 1 a(φ) φ φ φ θ b(θ) 2 exp(θ) n log(1 + e θ ) 2 c(y,φ) 1 2 [y2 ) n φ y 26 / 57
Media y varianza de la componente Se verifica: y µ i = E(Y i ) = b (θ i ). var(y i ) = b (θ i )a(φ). s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Familia de dispersión exponencial Media y varianza de la componente sistemática y la función link Ecuaciones de verosimilitud 27 / para 57un GLM
sistemática y la función link La componente sistemática viene dada por η i = j y en forma matricial β j x ij, i = 1,...,N. η = Xβ con η = (η 1,...,η p ) y β = (β 1,...,β p ) siendo X la matriz de modelo. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Familia de dispersión exponencial Media y varianza de la componente sistemática y la función link Ecuaciones de verosimilitud 28 / para 57un GLM
Un GLM relaciona η i con µ i con la función link. η i = g(µ i ) = β j x ij, i = 1,...,N. j El parámetro natural θ i es θ i = g(µ i ) = β j x ij j s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Familia de dispersión exponencial Media y varianza de la componente sistemática y la función link Ecuaciones de verosimilitud 29 / para 57un GLM
Ecuaciones de verosimilitud para un GLM La logverosimilitud sería L(β) = i L i = i log f(y i ;θ i,φ) = i y i θ i b(θ i ) + a(φ) i c(y i,φ). Las ecuaciones de verosimilitud son N i=1 (y i µ i )x ij var(y i ) µ i η i = 0, j = 1,...,p. 30 / 57
Matriz de covarianza asintótica Puesto que E 2 L(β) β h β j = E L(β) β h I hj = E 2 L(β) β h β j = N i=1 N i=1 E L i(β) β h L(β) β j, E 2 L i (β) β h β j = L i (β) β j = N i=1 x ih x ij ( ) 2 µi var(y i ) η i 31 / 57
Matriz de covarianza asintótica Y la podemos expresar como I = X WX siendo con W = diag(w 1,...,w p ) w i = ( ) 2 1 µi var(y i ) η i 32 / 57
Matriz de covarianza asintótica estimada Estimamos W en ˆβ y tendremos Î = X ŴX siendo ĉov(ˆβ) = (X ŴX) 1 33 / 57
Modelo loglineal de Poisson Tenemos log µ = Xβ La componente sistemática se relaciona con la media como η i = log µ i de donde Además µ i η i = expη i = µ i vary i = µ i 34 / 57
Modelo loglineal de Poisson En este caso las ecuaciones de verosimilitud son (y i µ i )x ij = 0 para j = 1,...,p. i Estamos igualando los estadísticos suficientes i y ix ij a sus valores esperados i µ ix ij Además ( ) 2 1 µi w i = = µ i var(y i ) η i 35 / 57
Inferencia para s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para Desviación y bondad de ajuste Desviación para modelos loglineales Poisson Desviación 36 para / 57 modelos loglineales
Desviación y bondad de ajuste Un GLM saturado es el modelo que tiene un parámetro distinto para cada observación. Nos proporciona un (completamente inútil) ajuste perfecto. Sea θ i la estimación de θ i en el modelo saturado que corresponde con µ i = y i para cualquier i. Consideremos un modelo (insaturado) y denotemos por ˆθ i y ˆµ i los estimadores máximo verosímiles. La desviación viene dada por 2[L(ˆµ;y) L(y;y)] = 2 [ ] y i θi b( θ i ) /a(φ) 2 i i [ ] y iˆθi b(ˆθ i ) /a(φ) 37 / 57
Si asumimos que a(φ) = φ ω i entonces 2[L(ˆµ;y) L(y;y)] = 2 ] ω i [y i ( θ i ˆθ i ) b( θ i ) + b(ˆθ i ) /φ = D(y; ˆµ)/φ. i D(y; ˆµ)/φ es la desviación escalada y D(y; ˆµ) es la desviación. 38 / 57
Desviación para modelos loglineales Poisson Tenemos ˆθ i = log ˆµ i, b(ˆθ i ) = exp ˆθ i = ˆµ i, θ i = log y i, b( θ) = y i, a(φ) = 1. La desviación es igual a D(y, ˆµ) = 2 i [y i log(y i /ˆµ i ) y i + ˆµ i ]. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para Desviación y bondad de ajuste Desviación para modelos loglineales Poisson Desviación 39 para / 57 modelos loglineales
Desviación para modelos loglineales Poisson Si el modelo incorpora un termino constante entonces una de las ecuaciones de verosimilitud es i y i = i ˆµ i y D(y, ˆµ) = 2 i y i log(y i /ˆµ i ). Por tanto, si hay término constante en el modelo D(y, ˆµ) = 2 i Observado log Observado Ajustado. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para Desviación y bondad de ajuste Desviación para modelos loglineales Poisson Desviación 40 para / 57 modelos loglineales
Desviación para modelos binomiales Denotamos y i la proporción muestral basada en una muestra n i. Tenemos ˆθ i = log[ˆπ i /(1 ˆπ i )] θ i = log[y i /(1 y i )] a(φ) = 1 n i φ = 1, ω i = n i. s de un modelo lineal generalizado sistemática Función link Modelos logit binomiales para Modelos loglineales Poisson para conteos Desviación Modelos lineales para GLM para conteos Verosimilitud de Inferencia para Desviación y bondad de ajuste Desviación para modelos loglineales Poisson Desviación 41 para / 57 modelos loglineales
La desviación viene dada por 2 i n i y i log n iy i n iˆπ i + 2 i (n i n i y i ) log n i n i y i n i n iˆπ i Si consideramos la tabla de contingencia en donde la fila i-ésima corresponde con el i-ésimo setting (todas las covariables o variables predictoras son comunes) y tenemos dos columnas correspondiendo con éxito y fracaso entonces la desviación tiene la (bonita) interpretación 2 i Observado log Observado Ajustado 42 / 57
Comparación de modelos utilizando la desviación En un modelo binomial o Poisson, φ = 1, y la desviación es D(y; ˆµ) = 2[L(ˆµ;y) L(y;y)]. Queremos comparar dos modelos M 0 frente a M 1. M 0 anidado en M 1 (posiblemente eliminando algunas variables). Se tiene 2[L(ˆµ 0 ;y) L(ˆµ 1 ;y)] = D(y; ˆµ 0 ) D(y; ˆµ 1 ) por lo que el estadístico del test del cociente de verosimilitudes es la diferencia de las desviaciones. 43 / 57
Comparación de modelos utilizando la desviación En concreto en modelos loglineales Poisson con término constante y en modelos logit binomiales se tiene D(y; ˆµ 0 ) D(y; ˆµ 1 ) = 2 i Observado log Ajustado 1 Ajustado 0 44 / 57
Residuos en un GLM Si definimos ] d i = 2ω i [y i ( θ i ˆθ i ) b( θ i ) + b(ˆθ i ) entonces el residuo de la desviación es di signo(y i ˆµ i ) El residuo de Pearson es e i = y i ˆµ i var(y i ) 1/2 45 / 57
Residuos en un GLM Pero con cov(y ˆµ) = cov(y )(I H) H = W 1 2 X(X WX) 1 X W 1 2 Sustituyendo W por Ŵ obtenemos Ĥ. Si ĥi es el elemento que ocupa la posición i-ésima en la diagonal principal entonces el residuo de Pearson estandarizado es r i = y i ˆµ i ( )1 var(y i )(1 ĥi) 2 notar/notar025.pdf. 46 / 57
Ajuste de un GLM mediante Newton-Raphson Sea el vector gradiente u = L(β) β y la matriz hessiana H = [ ] 2 L(β) β a β b a,b=1,...,p u (t) y H (t) denotan u y H evaluados en β (t). Actualizamos nuestra estimación β (t) β (t+1) = β (t) ( H (t) ) 1 u (t) hasta que no haya una variación apreciable en la estimación 47 / 57
Ajuste de un GLM mediante Fisher Scoring Method Es como el método Newton-Raphson en donde sustituimos la matriz hessiana que no es más que la información observada por la matriz de información de Fisher o valor esperado de dicha matriz, es decir, por [ ] I = E 2 L(β) β a β b a,b=1,...,p Actualizamos la estimación de los parámetros mediante β (t+1) = β (t) + ( I (t) ) 1 u (t) o bien I (t) β (t+1) = I (t) β (t) + u (t) 48 / 57
Ajuste de un GLM mediante Fisher Scoring Method Notemos que I = X WX y I (t) = X W (t) X donde W (t) es W evaluada en β (t). Cuando finalizamos el proceso iterativo tendremos la matriz I (t) cuya inversa es la matriz de covarianzas de los estimadores. Obtenemos pues dicha matriz como un subproducto. 49 / 57
ML como mínimos cuadrados reponderados iterativamente Si consideramos un modelo lineal general z = Xβ + ǫ donde ǫ tiene matriz de covarianzas V entonces la estimación mínimo cuadrática es (X V 1 X) 1 X V 1 z 50 / 57
ML como mínimos cuadrados reponderados iterativamente Se ve fácilmente que con I (t) β (t) + u (t) = X W (t) z (t) z (t) i = j x ij β (t) j + (y i µ (t) i ) η(t) i µ (t) i = η (t) i + (y i µ (t) i ) η(t) i µ (t) i 51 / 57
ML como mínimos cuadrados reponderados iterativamente El método de actualización del Fisher scoring method queda como (X W (t) X)β (t+1) = X W (t) z (t) que no son más que las ecuaciones normales en un modelo lineal general donde las respuestas son z (t) y la matriz de covarianzas del error es W (t). Notemos que z i se relaciona con y i mediante una aproximación lineal de la función link g. g(y i ) g(µ i ) + (y i µ i )g (µ i ) = η i + (y i µ i ) η i µ i = z i 52 / 57
ML como mínimos cuadrados reponderados iterativamente En cada iteración z es estimado mediante z (t) y son utilizados como respuestas mientras que la matriz de covarianzas es estimada con Ŵ (t). Obtenemos β (t+1) que nos da una nueva componente sistemática η (t+1) (utilizada para calcular Ŵ (t+1) ) y un nuevo vector respuesta z (t+1). Vemos que estamos aplicando iterativamente unos mínimos cuadrados ponderados donde en cada iteración cambia la matriz de pesos (la matriz de covarianza estimada). Por ello se habla de mínimos cuadrado iterativos reponderados o iterative reweighted least squares. 53 / 57
Cuasiverosimilitud Wedderburn(1974) Las ecuaciones de verosimilitud son N i=1 (y i µ i )x ij var(y i ) µ i η i = 0, j = 1,...,p. siendo v(µ i ) = var(y i ). Las ecuaciones de verosimilitud depende de la distribución de Y i solamente a través de su media y su varianza, µ i y v(µ i ). Dada una distribución tenemos determinada la relación entre media y varianza, esto es, v(µ i ). 54 / 57
Cuasiverosimilitud Wedderburn(1974) Wedderburn(1974) propuso asumir solamente una relación entre media y varianza en lugar de una distribución en la variable respuesta. Asumimos una función link y un predictor lineal. No asumimos una distribución para Y i. En lugar de ello, asumimos var(y i ) = v(µ i ) para alguna función varianza v. Las ecuaciones que permiten obtener los estimadores cuasiverosímiles son las mismas. Pero no son ecuaciones de verosimilitud sin asumir una distribución. 55 / 57
Cuasiverosimilitud Wedderburn(1974) Wedderburn propuso utilizar estos estimadores incluso aunque no asumamos que Y i están en la familia exponencial natural. La matriz de covarianzas asintótica es tiene la forma (X ŴX) 1 con w i = ( µi η i ) 2 1 var(y i ) 56 / 57
Sobredispersión en GLM Poisson y cuasiverosimilitud Una posibilidad es considerar v(µ i ) = φµ i, para alguna constante φ. En las ecuaciones que utilizamos para estimar (que no son de verosimilitud) se cancela φ. Los estimadores son los mismos que los máximo verosímiles. notar/notar036.pdf 57 / 57