Линейная регрессия является статистическим инструментом, используемым для:
Исследуйте линейные зависимости или влияния predictor или explanatory переменных на переменные response.
Прогнозируйте или прогнозируйте будущие ответы, учитывая будущие данные предиктора.
Модель multiple linear regression (MLR) является
Для времен t = 1,..., T:
yt - наблюдаемая реакция.
xt является 1-бай- (p + 1) вектором-строкой наблюдаемых значений p предикторов. Чтобы разместить точку пересечения модели, x 1 t = 1 для всех t.
β является (p + 1) -на-1 вектор-столбец коэффициентов регрессии, соответствующих переменным, которые составляют столбцы xt.
εt - это случайное нарушение порядка, которое имеет среднее значение нуля и Cov (ε) = Ω. В целом Ω является T -by T симметричной, положительно определенной матрицей. Для простоты предположим, что нарушения порядка являются некоррелированными и имеют общее отклонение, то есть Ω = σ2<reservedrangesplaceholder2> <reservedrangesplaceholder1> × <reservedrangesplaceholder0>.
Значения β представляют ожидаемые предельные вклады соответствующих предикторов в yt. Когда xj предиктора увеличивается на один модуль, ожидается, что y увеличится на βj модулей, если предположить, что все другие переменные сохранены фиксированными. εt - это случайное различие между истинным и ожидаемым откликом в момент t.
Чтобы изучить линейные влияния предикторов на ответ или создать прогнозирующий MLR, вы должны сначала оценить параметры β и σ2. Frequentist статистики используют классический подход к оценке, то есть рассматривают параметры как фиксированные, но неизвестные величины. Популярные инструменты оценки частота включают наименьшие квадраты и максимальную правдоподобность. Если нарушения порядка являются независимыми, гомоскедастическими и Гауссовыми или нормальными, то наименьшие квадраты и максимальная вероятность дают эквивалентные оценки. Выводы, такие как доверительные интервалы на оценках параметра или интервалы предсказания, основаны на распределении нарушений порядка. Для получения дополнительной информации о частотном подходе к анализу MLR, смотрите Регрессия временных рядов I: Линейные модели или [6], ч. 3. Большинство инструментов в Econometrics Toolbox™ являются частыми.
Bayesian подход к оценке и выводу моделей MLR лечит β и σ2 как случайные переменные, а не фиксированные, неизвестные величины. В целом, цель байесовского анализа состоит в том, чтобы обновить распределения вероятностей параметров путем включения информации о параметрах от наблюдения данных. До выборки данных у вас есть некоторые убеждения относительно совместного распределения параметров. После выборки вы комбинируете вероятность, вызванную распределением данных, с вашими предыдущими убеждениями, чтобы составить совместное условное распределение параметров, заданных данными. Признаки и функции полученного распределения являются базисом для оценки и вывода.
Одной из основных целей байесовского анализа является вычисление, или выборка из, posterior distribution (или posterior). Апостериорным является распределение параметров, обновленных с помощью (или заданных) данных, и состоит из этих величин:
A likelihood function - информация, которую предоставляет выборка о параметрах. Если вы берете случайную выборку, то вероятность для MLR это
- функция условной плотности вероятностей yt заданная параметрами и вызванная условным распределением εt. Обычно xt является фиксированной величиной. Если нарушения порядка независимы, гомоскедастичны и гауссовы, то
ϕ (yt; xtβ, σ2) - Гауссова плотность вероятностей со средней xtβ и отклонением σ2, оцениваемый в yt.
Prior distributions (или priors) на параметрах - Распределение параметров, которые вы предполагаете перед наблюдением данных. Наложение предварительных допущений о распределении на параметры имеет преимущество перед частотным анализом: priors позволяет включать знания о модели перед просмотром данных. Вы можете контролировать доверие в своих знаниях о параметре, скорректировав предыдущее отклонение. Установка высокого отклонения означает, что вы очень мало знаете о параметре, и вы хотите взвесить информацию в данных о параметрах более сильно. Установка низкого отклонения подразумевает высокое доверие в ваших знаниях о параметре, и вы хотите принять во внимание эти знания в анализе.
На практике вы используете априоры для удобства, а не следуете мнению исследователя о фактическом распределении параметров. Например, можно выбрать априоры, чтобы соответствующее апостериорное распределение находилось в одном семействе распределений. Эти предшествующие-апостериорные пары называются conjugate распределениями. Однако выбор априоров может повлиять на оценку и вывод, поэтому вы должны выполнить анализ чувствительности с оценкой.
Priors может содержать параметры, называемые hyperparameters, которые могут иметь распределения вероятностей себя. Такие модели называются hierarchical Bayesian models.
Для MLR предыдущие распределения обычно обозначаются как π (β) и π (σ2). Популярным выбором является normal-inverse-gamma conjugate model, в которой π (β | σ2) - многомерное Гауссово или многомерное нормальное распределение и π (σ2) - обратный гамма- распределение.
Можно содержать апостериорное распределение β и σ2 использование правила Байеса, то есть,
Если β зависит от σ2, затем его предыдущий должен быть заменен на π (β | σ2). Знаменатель является распределением отклика, заданным предикторами, и он становится константой после того, как вы наблюдаете y. Поэтому апостериор часто записывается как пропорциональный числителю.
Апостериор подобен любому другому совместному распределению вероятностей случайных переменных, и он содержит всю информацию, известную о параметрах после включения данных. Оценки и выводы параметров основаны в основном на интегралах функций параметров относительно апостериорного распределения.
Апостериорная оценка и вывод включают интегрирование функций параметров относительно апостериорной. Популярные оценки и выводы для параметров MLR включают следующее:
Ожидаемое значение β, заданное как данные,
Эта величина обеспечивает естественную интерпретацию и является оценщиком минимальной средней квадратичной невязки (MSE), то есть минимизирует Медиана, режим или квантиль могут быть оценщиками Байеса относительно других потерь.
The maximum a priori estimate (MAP) - значение параметра, которое максимизирует апостериорное распределение.
Учитывая данные, предсказанный ответ предиктора является случайной переменной со posterior predictive distribution
Можно просмотреть эту величину как условное ожидаемое значение распределения вероятностей y относительно апостериорного распределения параметров.
95%-й доверительный интервал на β (или credible interval) - установил S, таким образом что P (β ∊ <reservedrangesplaceholder2> | y, x) = 0.95. Это уравнение дает бесконечно много интервалов, включая:
Equitailed interval, который является интервалом (L, U) таким образом что P (β <L | y, x) = 0.025 и P (β> U | y, x) = 0.025.
Highest posterior density (HPD) область, которая является самым узким интервалом (или интервалами), получая заданную вероятность. Он обязательно содержит самые большие апостериорные значения.
В отличие от интерпретации частотных доверительных интервалов, интерпретация байесовских доверительных интервалов заключается в том, что, учитывая данные, вероятность того, что случайная β находится в S интервалов (интервалов ) (ов), составляет 0,95. Эта интерпретация интуитивно понятна, что является преимуществом байесовских доверительных интервалов по сравнению с частотными доверительными интервалами.
Маргинальные апостериорные вероятности включения переменных, также называемые вероятностями режима, являются результатом реализации выбора стохастической поисковой переменной (SSVS) и указывают, являются ли переменные предиктора незначительными или избыточными в байесовской линейной регрессионой модели. В SSVS β имеет многомерное, двухкомпонентное гауссовское распределение смеси. Оба компонента имеют среднее значение нуля, но один компонент имеет большое отклонение, а другой компонент имеет небольшое отклонение. Незначительные предикторы, вероятно, будут близки к нулю; поэтому они из компонента с малым отклонением. SSVS выборок из пространства 2p + 1 сочетания модели, каждое сочетание включает или исключает коэффициент, и модели с самой высокой апостериорной плотностью дискретизируются чаще. Вероятности режима получают из выборочных моделей.
Методы интегрирования зависят от функциональной формы продукта и интегранд, для примера, h (β, σ2).
Если продукт формирует ядро известного распределения вероятностей, то интегралы h (β, σ2) относительно апостериорной может быть аналитически отслеживаемым. Известные ядра часто возникают, когда вы выбираете априоры и апостериоры, чтобы сформировать сопряженные пары. В этих случаях обычно известны первые несколько моментов распределения, и оценки основаны на них. Для получения дополнительной информации об аналитически отслеживаемых апостериорных распределениях, предлагаемых байесовскими линейными регрессиоными моделями среды в Econometrics Toolbox, см. «Аналитически отслеживаемые апостериоры».
В противном случае необходимо использовать численное интегрирование методы, чтобы вычислить интегралы h (β, σ2) относительно апостериорных распределений. При определенные обстоятельства можно реализовать численное интегрирование с помощью Monte Carlo или Markov chain Monte Carlo (MCMC) выборки.
Чтобы выполнить оценку Монте-Карло, вы рисуете много выборок из распределения вероятностей, применяйте соответствующую функцию к каждому рисунку (h (β, σ2) является фактором в функции), и среднее значение получившихся рисунков для аппроксимации интеграла. Популярным методом Монте-Карло является повторная выборка важности [6].
Вы реализуете MCMC, когда не знаете распределения вероятностей до константы, или знаете условные распределения всех параметров, по крайней мере, до константы. Популярные методы MCMC включают выборку Гиббса [2], алгоритм Metropolis-Hastings [5] и выборку среза [9].
Для получения дополнительной информации о апостериорной оценке байесовской модели линейной регрессии в Econometrics Toolbox, когда апостериор неразрешим, см. «Аналитически неразрешимые апостериоры».
Байесовская линейная регрессионная среда в Econometrics Toolbox предлагает несколько предшествующих спецификаций модели, которые дают аналитически отслеживаемые, сопряженные маргинальные или условные апостериоры. Эта таблица идентифицирует предыдущие модели и их соответствующих апостериоров. Когда вы передаете предыдущую модель и данные estimate
, MATLAB® использует эти формулы. Когда программное обеспечение создает апостериоры, оно принимает, что данные отклика yt, t = 1,..., T, является случайной выборкой из Гауссова распределения со средними xtβ и отклонением σ2.
Предварительные Объекты модели | Уголовное прошлое | Маргинальные апостериоры | Условные апостериоры |
---|---|---|---|
conjugateblm |
β и σ2 являются независимыми. |
| |
semiconjugateblm |
β и σ2 являются зависимыми. | Аналитически неразрешимый |
|
diffuseblm | Соединение предшествующее PDF |
|
|
mixconjugateblm |
| Несмотря на то, что маргинальные апостериоры аналитически прослеживаются, MATLAB рассматривает их как неразрешимые для масштабируемости (см. [1]). | Аналитически отслеживаемые, если γj и γk независимы, для всех j ≠ k |
mixsemiconjugateblm |
| Аналитически неразрешимый | Аналитически отслеживаемые, если γj и γk независимы, для всех j ≠ k |
lassoblm |
Коэффициенты независимы, априори. | Аналитически неразрешимый |
|
В таблице:
N p + 1 (m, Σ) обозначает (p + 1) -мерное многомерное нормальное распределение, где m - среднее (a (p + 1) -на 1 вектор) и Σ - отклонение (a (p + 1) -by- (p + 1) симметричное, положительно определенная матрица).
IG (A, B) обозначает обратное гамма-распределение с формой A > 0 и масштабом B > 0. PDF IG (A, B) является
X является T -by- (p + 1) матрицей данных предиктора, то есть xjk является j наблюдения k предиктора. Первый столбец состоит полностью из таковых для точки пересечения.
y является T вектором откликов -by-1.
t p + 1 (m, Σ, ν) обозначает (p + 1) -мерное многомерное t распределение, где m - расположение, Σ - шкала, а ν - степени свободы.
, то есть оценка методом наименьших квадратов β.
V*j1 - предшествующий коэффициент отклонения (mixconjugate
) или отклонение (mixsemiconjugate
) βj, когда γj = 1, и V*j2 является его предыдущим коэффициентом отклонения или отклонением, когда γj = 0.
V* (p + 1) (p + 1) диагональная матрица, и элемент j, j - <reservedrangesplaceholder1> <reservedrangesplaceholder0>*j1 + (1 – γj) V*j2.
mixconjugateblm
и mixsemiconjugateblm
модели поддерживают предыдущие средние спецификации для β, отличных от вектора нуля по умолчанию для обоих компонентов смешанной гауссовской модели. Если вы изменяете предшествующее среднее β по умолчанию, то соответствующие условные апостериорные распределения включают предшествующие средства так же, как условные апостериорные распределения conjugateblm
и semiconjugateblm
модели включают предыдущие средства.
λ является фиксированным параметром усадки лассо.
InvGaussian (m, v) обозначает обратный Гауссов (Wald) со средними m и v формы.
Байесовская линейная регрессионная среда в Econometrics Toolbox предлагает несколько предшествующих спецификаций модели, которые дают аналитически неразрешимые, но гибкие, маргинальные и условные апостериоры. Эта таблица идентифицирует предыдущие модели и методы выборки Монте-Карло, которые MATLAB использует для выполнения апостериорной оценки, симуляции и вывода, когда вы передаете предыдущую модель и данные, estimate
, simulate
, или forecast
.
Предварительные Объекты модели | Уголовное прошлое | Метод симуляции для маргинального апостериора | Метод симуляции для условного апостериора |
---|---|---|---|
semiconjugateblm |
β и σ2 являются зависимыми. | Пробоотборник Гиббса [2] | Условный апостериор аналитически прослеживается |
empiricalblm | Характеризуется извлечениями из соответствующих предыдущих распределений | Повторная дискретизация выборки [4] | Не поддерживается |
customblm | Характеризуется соединением pdf. в объявленной функции |
| |
mixconjugateblm |
| Пробоотборник Гиббса [1] | Условный апостериор аналитически прослеживается |
mixsemiconjugateblm |
| Пробоотборник Гиббса [1] | Условный апостериор аналитически прослеживается |
lassoblm |
Коэффициенты независимы, априори. | Пробоотборник Гиббса [10] | Условный апостериор аналитически прослеживается |
[1] Джордж, Э. И. и Р. Э. Маккаллох. «Выбор переменной через выборку Гиббса». Журнал Американской статистической ассоциации. Том 88, № 423, 1993, с. 881-889.
[2] Гельфанд, А. Э. и А. Ф. М. Смит. «Основанные на дискретизации подходы к вычислению предельных плотностей». Журнал Американской статистической ассоциации. Том 85, 1990, стр. 398-409.
[3] Гельман, А., Дж. Б. Карлин, Х. С. Стерн и Д. Б. Рубин. Байесовский анализ данных, 2-е. Эд. Бока Ратон, FL: Chapman & Hall/CRC, 2004.
[4] Гордон, Н. Дж., Д. Дж. Салмонд, и А. Ф. М. Смит. «Новый подход к нелинейной/негауссовой байесовской государственной оценке». Материалы IEEE F по радиолокации и обработке сигналов. Том 140, 1993, стр. 107-113.
[5] Hastings, W. K. «Monte Carlo Sampling Methods Using Markov Chains and Their Applications». Биометрика. Том 57, 1970, с. 97-109.
[6] Marin, J. M., and C. P. Robert. Байесовское ядро: практический подход к вычислительной байесовской статистике. Нью-Йорк: Springer Science + Business Media, LLC, 2007 .
[7] Metropolis, N., A. W. Rosenbluth, M. N. Rosenbluth, A. H. Teller, and E. Teller. Уравнения вычислений состояния быстрой вычислительной машиной. J. Chem. Phys. vol. 21, 1953, pp. 1087-1091.
[8] Neal, R. M. «MCMC с использованием гамильтоновой динамики». У С. Брукса, А. Гельмана, Г. Джонса и X.-L. Менг (эд.) Справочник Markov Chain Monte Carlo. Бока Ратон, FL: Chapman & Hall/CRC, 2011.
[9] Нил, Р. М. «Slice Sampling». Анналы статистики. Том 31, 2003, стр. 705-767.
[10] Парк, Т. и Г. Казелла. «Байесовский лассо». Журнал Американской статистической ассоциации. Том 103, № 482, 2008, стр. 681-686.
bayeslm
| conjugateblm
| customblm
| diffuseblm
| empiricalblm
| estimate
| forecast
| semiconjugateblm