exponenta event banner

Оценка параметров в линейных моделях смешанных эффектов

Линейная модель смешанных эффектов имеет вид

y=Xβ︸fixed+Zb︸random+ε︸error,

где

  • y - вектор отклика n-by-1, а n - число наблюдений.

  • X представляет собой матрицу конструкции с фиксированными эффектами n-by-p.

  • β - вектор с фиксированными эффектами p-by-1.

  • Z - матрица проектирования случайных эффектов n-на-q.

  • b - вектор случайных эффектов q-by-1.

  • start- вектор ошибки наблюдения n-by-1.

Предполагается, что вектор случайных эффектов, b, и вектор погрешности, λ, имеют следующие независимые предшествующие распределения:

b ~ N (0,σ2D (start)), (0),

где D - симметричная и положительная полудефинированная матрица, параметризованная вектором составляющей дисперсии, I - единичная матрица n-на-n,

В этой модели параметрами для оценки являются коэффициенты с фиксированными эффектами β, а также компоненты дисперсионной составляющей («» δ «») и («» start2 «»). Двумя наиболее часто используемыми подходами к оценке параметров в линейных моделях смешанных эффектов являются методы максимального правдоподобия и ограниченного максимального правдоподобия.

Максимальная вероятность (ML)

Оценка максимального правдоподобия включает в себя как коэффициенты регрессии, так и компоненты дисперсии, то есть термины фиксированных эффектов и случайных эффектов в функции правдоподобия.

Для линейной модели со смешанными эффектами, определенной выше, условный отклик переменной отклика y, заданной β, b,

y 'b, β, start, start2 ~ N (+ Zb, start2In).

Вероятность y данного β,

P (y 'β, λ, start2) =∫P (y' b, β, start2) P (b '

где

P (b 'start, start2) = 1 (2íβ2) q21 | D (start) | 12exp {12σ2bTD 1b} и P (y' b, β, start2) = 1 (2βstart2) n2exp {12start2 (y − Xβ − Zb) T (y − Xβ − Zb)}.

Предположим, Λ (λ) - нижний треугольный чолесский множитель D (λ), а Δ (λ) - обратный Λ (λ). Затем,

D (θ) −1 (θ) TΔ (θ).

Определить

r2 (β, b, λ) = bTΔ (λ) (λ) b + (y Zb) T (y − Xβ − Zb),

и предположим, что b * является значением b, которое удовлетворяет

∂r2 (β, b, start) ∂b'b*=0

для данных β и λ. Затем функция правдоподобия

P (y 'β, λ, start2) = (2οstart2) n2 | D (start) | 12exp {12start2r2 (β, b * (β), start)} 1 | ΔTΔ + ZTZ | 12.

Сначала P (y 'β, start, start2) максимизируется относительно β и, для данного Таким образом, оптимизированные решения β ^ (λ) и λ ^ 2 (λ) получаются в качестве функций, связанных с Подстановка этих решений в функцию правдоподобия производит P (y 'β ^ (λ), λ, λ ^ 2 (start)). Это выражение называется профилированным правдоподобием, где были профилированы β и start2. P (y 'β ^ (λ), λ, λ ^ 2 (start)) является функцией, и алгоритм затем оптимизирует ее относительно, Как только он находит оптимальную оценку, оценки β и start2 задаются β ^ (start) и λ ^ 2 (start).

Метод ML рассматривает β как фиксированные, но неизвестные величины, когда компоненты дисперсии оцениваются, но не учитывает степени свободы, потерянные при оценке фиксированных эффектов. Это приводит к смещению оценок ML с меньшими отклонениями. Тем не менее, одно преимущество ML перед REML заключается в том, что можно сравнить две модели с точки зрения их фиксированных и случайных эффектов. С другой стороны, при использовании REML для оценки параметров можно сравнить только две модели, вложенные в их элементы случайных эффектов, с одинаковой конструкцией фиксированных эффектов.

Ограниченная максимальная вероятность (REML)

Оценка ограниченного максимального правдоподобия включает только компоненты дисперсии, то есть параметры, которые параметризуют члены случайных эффектов в линейной модели смешанных эффектов. β оценивают на втором этапе. Допущение равномерного неправильного предварительного распределения для β и интегрирование правдоподобия P (y 'β, start, start2) по отношению к β приводит к ограниченному правдоподобию P (y' start, start2). То есть

P (y ,σ2) = ∫P (y ,σ2) P (β) = P (y ,σ2) dβ.

Алгоритм сначала выстраивает λ ^ R2 и максимизирует оставшуюся объективную функцию в отношении start, чтобы найти start^ R. Ограниченная вероятность затем максимизируется в отношении start2, чтобы найти λ ^ R2. Затем он оценивает β, находя свое ожидаемое значение по отношению к заднему распределению

P (β 'y, λ ^ R, λ ^ R2).

REML учитывает степени свободы, потерянные при оценке фиксированных эффектов, и делает менее смещенную оценку дисперсий случайных эффектов. Оценки, выраженные в, являются инвариантными по отношению к значению β и менее чувствительными к отклонениям в данных по сравнению с оценками ML. Однако при использовании REML для оценки параметров можно сравнить только две модели, которые имеют идентичные матрицы конструкции с фиксированными эффектами и вложены в их элементы случайных эффектов.

Ссылки

[1] Pinherio, J. C. и Д. М. Бэйтс. Модели смешанных эффектов в S и S-PLUS. Серия статистики и вычислений, Спрингер, 2004.

[2] Харихаран, С. и Дж. Х. Роджерс. «Процедуры оценки для иерархических линейных моделей». Многоуровневое моделирование образовательных данных (А. А. Коннелл и Д. Б. МакКоуч, ред.). Charlotte, NC: Information Age Publishing, Inc., 2008.

[3] Рауденбуш, С. В. и А. С. Брык. Иерархические линейные модели: приложения и методы анализа данных, 2-е издание, тыс. дубов, CA: Sage Publications, 2002.

[4] Hox, J. Многоуровневый анализ, методы и применения. Lawrence Erlbaum Associates, Inc, 2002.

[5] Сниджерс, Т. и Р. Боскер. Многоуровневый анализ. «Тысяча дубов», CA: Sage Publications, 1999.

[6] Маккаллох, н. э., Р. С. Шейл и Дж. М. Нойхаус. Обобщенные, линейные и смешанные модели. Уайли, 2008.

См. также

| |

Связанные темы