Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Estimación de parámetros en modelos lineales de efectos mixtos

Un modelo lineal de efectos mixtos es de la forma

y=Xβfixed+Zbrandom+εerror,

Dónde

  • es el vector de respuesta-por-1, y es el número de observaciones.ynn

  • es una matriz de diseño de efectos fijos.Xnp

  • es un vector de efectos fijos de-por-1.βp

  • es una matriz de diseño de efectos aleatorios.Znq

  • es un vector de efectos aleatorios de-por-1.bq

  • es el vector de error de observación-por-1.εn

Se asume que el vector de efectos aleatorios, y el vector de error, tienen las siguientes distribuciones previas independientes:bε

b~N(0,σ2D(θ)),ε~N(0,σI2),

donde se encuentra una matriz semidefinida simétrica y positiva, parametrizada por un vector de componente de varianza, es una matriz a-por-identidad yDθInnσ2 es la varianza del error.

En este modelo, los parámetros a estimar son los coeficientes de efectos fijos, y los componentes de la varianza yβθσ2. Los dos enfoques más comúnmente utilizados para la estimación de parámetros en modelos lineales de efectos mixtos son los métodos de máxima verosimilitud y restricción máxima de probabilidad.

Máxima probabilidad (ML)

La estimación de máxima verosimilitud incluye tanto los coeficientes de regresión como los componentes de la varianza, es decir, los términos de efectos fijos y efectos aleatorios en la función de probabilidad.

Para un modelo de efectos mixtos lineal definido anteriormente, la respuesta condicional de la variable de respuesta dada,, y σyβbθ2 Es

y|b,β,θ,σ2~N(Xβ+Zb,σ2In).

La probabilidad de que se dé, y σyβθ2 Es

P(y|β,θ,σ2)=P(y|b,β,θ,σ2)P(b|θ,σ2)db,

Dónde

P(b|θ,σ2)=1(2πσ2)q21|D(θ)|12exp{12σ2bTD1b}andP(y|b,β,θ,σ2)=1(2πσ2)n2exp{12σ2(yXβZb)T(yXβZb)}.

Supongamos que Λ () es el factor de Colesky triangular inferior de () y Δ () es el inverso de Λ ().θDθθθ Entonces

D(θ)1=Δ(θ)TΔ(θ).

Definir

r2(β,b,θ)=bTΔ(θ)TΔ(θ)b+(yXβZb)T(yXβZb),

y Supongamos queb* es el valor de que satisfaceb

r2(β,b,θ)b|b*=0

para dado y.βθ Entonces, la función de probabilidad es

P(y|β,θ,σ2)=(2πσ2)n2|D(θ)|12exp{12σ2r2(β,b*(β),θ)}1|ΔTΔ+ZTZ|12.

P (y |,, σβθ2) se maximiza primero con respecto a y σβ2 para un dado.θ Así, las soluciones optimizadas β^(θ) Y σ^2(θ)se obtienen como funciones de.θ La sustitución de estas soluciones en la función de probabilidad produce P(y|β^(θ),θ,σ^2(θ)). Esta expresión se denomina probabilidad perfilada donde y σβ2 han sido perfilados. P(y|β^(θ),θ,σ^2(θ)) es una función de, y el algoritmo lo optimiza con respecto a.θθ Una vez que encuentra la estimación óptima de, las estimaciones de y σθβ2 son dadas por β^(θ) Y σ^2(θ).

El método ML se trata como cantidades fijas pero desconocidas cuando se estiman los componentes de desviación, pero no se tienen en cuenta los grados de libertad perdidos al estimar los efectos fijos.β Esto hace que las estimaciones de ML sean sesgadas con desviaciones más pequeñas. Sin embargo, una ventaja de ML sobre REML es que es posible comparar dos modelos en términos de sus términos de efectos fijos y aleatorios. Por otro lado, si utiliza REML para estimar los parámetros, sólo puede comparar dos modelos, que están anidados en sus términos de efectos aleatorios, con el mismo diseño de efectos fijos.

Máxima verosimilitud restringida (REML)

La estimación de máxima verosimilitud restringida incluye solo los componentes de la varianza, es decir, los parámetros que parametrizan los términos de efectos aleatorios en el modelo lineal de efectos mixtos. se estima en un segundo paso.β Suponiendo una distribución anterior inadecuada y uniforme para e integrando la probabilidad P (|,, σβyβθ2) con respecto a los resultados en la probabilidad restringida P (|, σβyθ2). Es decir

P(y|θ,σ2)=P(y|β,θ,σ2)P(β)dβ=P(y|β,θ,σ2)dβ.

El algoritmo primero se perfilan hacia fuera σ^R2 y maximiza la función objetiva restante con respecto a encontrarθ θ^R. La probabilidad restringida se maximiza con respecto a σ2 Buscar σ^R2. A continuación, estima encontrando su valor esperado con respecto a la distribución posteriorβ

P(β|y,θ^R,σ^R2).

REML representa los grados de libertad perdidos al estimar los efectos fijos, y hace una estimación menos sesgada de las desviaciones de efectos aleatorios. Las estimaciones de y σθ2 son invariables al valor y menos sensibles a los valores atípicos de los datos en comparación con las estimaciones de ML.β Sin embargo, si utiliza REML para estimar los parámetros, sólo puede comparar dos modelos que tienen las matrices de diseño de efectos fijos idénticos y están anidados en sus términos de efectos aleatorios.

Referencias

[1] Pinherio, J. C., and D. M. Bates. Mixed-Effects Models in S and S-PLUS. Statistics and Computing Series, Springer, 2004.

[2] Hariharan, S. and J. H. Rogers. “Estimation Procedures for Hierarchical Linear Models.” Multilevel Modeling of Educational Data (A. A. Connell and D. B. McCoach, eds.). Charlotte, NC: Information Age Publishing, Inc., 2008.

[3] Raudenbush, S. W. and A. S. Bryk. Hierarchical Linear Models: Applications and Data Analysis Methods, 2nd ed. Thousand Oaks, CA: Sage Publications, 2002.

[4] Hox, J. Multilevel Analysis, Techniques and Applications. Lawrence Erlbaum Associates, Inc, 2002.

[5] Snidjers, T. and R. Bosker. Multilevel Analysis. Thousand Oaks, CA: Sage Publications, 1999.

[6] McCulloch, C.E., R. S. Shayle, and J. M. Neuhaus. Generalized, Linear, and Mixed Models. Wiley, 2008.

Consulte también

| |

Temas relacionados