Оценка параметров в линейных моделях смешанных эффектов

Линейная модель смешанных эффектов имеет вид

y=Xβfixed+Zbrandom+εerror,

где

  • y - n вектор отклика -by-1, а n - количество наблюдений.

  • X является n матрицей проекта -by p fixed-effects.

  • β является вектором p -by-1 с фиксированными эффектами.

  • Z является n матрицей проекта -by q random-эффектов.

  • b является q вектором случайных эффектов -by-1.

  • ε является n вектором ошибки наблюдения -by-1.

Вектор, b и вектор ошибок ε случайных эффектов имеют следующие независимые предшествующие распределения:

b~N(0,σ2D(θ)),ε~N(0,σI2),

где D - симметричная и положительная полуопределенная матрица, параметризованная вектором θ дисперсионного компонента, I является единичной матрицей n -by n и σ2 - отклонение ошибок.

В этой модели параметрами для оценки являются коэффициенты с фиксированными эффектами β, и компоненты отклонения θ и σ2. Двумя наиболее часто используемыми подходами к оценке параметров в линейных моделях смешанных эффектов являются максимальная правдоподобность и ограниченные максимальные методы правдоподобия.

Максимальная правдоподобность (ML)

Максимальная оценка правдоподобия включает в себя как коэффициенты регрессии, так и составляющие отклонения, то есть члены как с фиксированными эффектами, так и со случайными эффектами в функции правдоподобия.

Для модели линейных смешанных эффектов, заданной выше, условный ответ переменной отклика y заданным β, b, θ и2 является

y|b,β,θ,σ2~N(Xβ+Zb,σ2In).

Вероятность y заданных β, θ и2 является

P(y|β,θ,σ2)=P(y|b,β,θ,σ2)P(b|θ,σ2)db,

где

P(b|θ,σ2)=1(2πσ2)q21|D(θ)|12exp{12σ2bTD1b}иP(y|b,β,θ,σ2)=1(2πσ2)n2exp{12σ2(yXβZb)T(yXβZb)}.

Предположим, что Λ (<reservedrangesplaceholder4>) является более низкий треугольный Фактор Холецкого D (<reservedrangesplaceholder2>), и Δ (<reservedrangesplaceholder1>) - инверсия Λ (<reservedrangesplaceholder0>). Затем,

D(θ)1=Δ(θ)TΔ(θ).

Определить

r2(β,b,θ)=bTΔ(θ)TΔ(θ)b+(yXβZb)T(yXβZb),

и предположим b* - значение b, которое удовлетворяет

r2(β,b,θ)b|b*=0

для заданных β и θ. Тогда функция правдоподобия является

P(y|β,θ,σ2)=(2πσ2)n2|D(θ)|12exp{12σ2r2(β,b*(β),θ)}1|ΔTΔ+ZTZ|12.

П (y|<reservedrangesplaceholder1>,<reservedrangesplaceholder0>,σ2) сначала максимизируется по отношению к β и2 для заданного θ. Таким образом, оптимизированные решения β^(θ) и σ^2(θ)получают как функции θ. Подстановка этих решений в функцию правдоподобия создает P(y|β^(θ),θ,σ^2(θ)). Это выражение называется профилированной вероятностью, где β и2 были профилированы. P(y|β^(θ),θ,σ^2(θ)) является функцией θ, и алгоритм затем оптимизирует его относительно θ. Как только он находит оптимальную оценку θ, оценки β и2 даны β^(θ) и σ^2(θ).

Метод ML рассматривает β как фиксированные, но неизвестные величины, когда оцениваются компоненты отклонения, но не учитывает степени свободы, потерянные путем оценки фиксированных эффектов. Это приводит к смещению оценок ML с меньшими отклонениями. Однако одним из преимуществ ML по сравнению с REML является то, что можно сравнить две модели с точки зрения их фиксированных и случайных эффектов. С другой стороны, если вы используете REML для оценки параметров, можно сравнить только две модели, которые вложены в их условия случайных эффектов с тем же проектом фиксированных эффектов.

Ограниченная максимальная правдоподобность (REML)

Ограниченная максимальная оценка правдоподобия включает только компоненты отклонения, то есть параметры, которые параметризируют условия случайных эффектов в модели линейных смешанных эффектов. β оценивается на втором этапе. Принимая равномерное неподходящее предшествующее распределение для β и интегрирования правдоподобия P (y | β, θ,2) относительно β результатов в ограниченной вероятностной вероятности P (y | θ,2). То есть,

P(y|θ,σ2)=P(y|β,θ,σ2)P(β)dβ=P(y|β,θ,σ2)dβ.

Алгоритм сначала профилирует out σ^R2 и максимизирует оставшуюся целевую функцию относительно θ для поиска θ^R. Ограниченная правдоподобность затем максимизируется относительно2 найти σ^R2. Затем он оценивает β путем нахождения его ожидаемого значения относительно апостериорного распределения

P(β|y,θ^R,σ^R2).

REML учитывает степени свободы, потерянные путем оценки фиксированных эффектов, и делает менее предвзятую оценку отклонений случайных эффектов. Оценки θ и2 инвариантны значению β и менее чувствительны к выбросам в данных по сравнению с оценками ML. Однако, если вы используете REML для оценки параметров, можно сравнить только две модели, которые имеют идентичные матрицы проекта с фиксированными эффектами и вложены в их условия случайных эффектов.

Ссылки

[1] Pinherio, J. C., and D. M. Bates. Модели смешанных эффектов в S и S-PLUS. Statistics and Computing Series, Springer, 2004.

[2] Харихаран, С. и Дж. Х. Роджерс. «Процедуры оценки для иерархических линейных моделей». Многоуровневое моделирование образовательных данных (A. A. Connell and D. B. McCoach, eds.). Шарлотта, NC: Information Age Publishing, Inc., 2008.

[3] Рауденбуш, С. У. и А. С. Брык. Иерархические линейные модели: приложения и методы анализа данных, 2nd ed. Thousand Oaks, CA: Sage Publications, 2002.

[4] Hox, J. Многоуровневый анализ, методы и приложения. Lawrence Erlbaum Associates, Inc, 2002.

[5] Snidjers, T. and R. Bosker. Многоуровневый анализ. Тысяча дубов, CA: Sage Publications, 1999.

[6] McCulloch, C.E., R. S. Shayle, and J. M. Neuhaus. Обобщенные, линейные и смешанные модели. Уайли, 2008.

См. также

| |

Похожие темы