Регуляризация Лассо обобщенных линейных моделей

Что такое Обобщенная Линейная Модель Регуляризация Лассо?

Лассо - метод регуляризации. Использовать lassoglm кому:

  • Уменьшите количество предикторов в обобщенной линейной модели.

  • Идентифицируйте важные предикторы.

  • Выберите среди избыточных предикторов.

  • Получите оценки усадки с потенциально более низкими прогнозирующими ошибками, чем обычные наименьшие квадраты.

Эластичная сетка является связанным методом. Используйте его, когда у вас есть несколько сильно коррелированных переменных. lassoglm обеспечивает упругую сетевую регуляризацию, когда вы устанавливаете Alpha Пара "имя-значение" на число, строго лежащее между 0 и 1.

Для получения дополнительной информации о лассо и упругих сетевых расчетах и алгоритмах, см. Обобщенную линейную модель Лассо и упругую сетку. Для обсуждения обобщенных линейных моделей смотрите Что такое обобщенные линейные модели?.

Обобщенная линейная модель Lasso и упругая сеть

Обзор лассо и эластичной сети

Lasso является методом регуляризации для оценки обобщенных линейных моделей. Лассо включает штрафной термин, который ограничивает размер предполагаемых коэффициентов. Поэтому он напоминает Ridge Regression. Лассо является shrinkage estimator: он генерирует оценки коэффициентов, которые смещены, чтобы быть маленькими. Тем не менее, оценщик lasso может иметь меньшую ошибку, чем обычный максимальный оценщик правдоподобия, когда вы применяете его к новым данным.

В отличие от регрессии гребня, когда срок штрафа увеличивается, метод лассо устанавливает больше коэффициентов в нуль. Это означает, что оценка lasso является меньшей моделью с меньшим количеством предикторов. Таким образом, лассо является альтернативой ступенчатой регрессии и другим методам выбора модели и уменьшения размерности.

Elastic net является связанным методом. Эластичная сеть сродни гибриду регрессии гребня и регуляризации лассо. Как и лассо, эластичная сеть может генерировать уменьшенные модели путем генерации нулевых коэффициентов. Эмпирические исследования показывают, что метод упругой сети может превзойти лассо на данных с высоко коррелированными предикторами.

Определение лассо для обобщенных линейных моделей

Для неотрицательного значения λ, lassoglm решает задачу

minβ0,β(1NОтклонение(β0,β)+λj=1p|βj|).

  • Функция Deviance в этом уравнении является отклонением модели к откликам с помощью β перехвата 0 и коэффициентов предиктора β. Формула для Deviance зависит от distr параметр, который вы поставляете в lassoglm. Минимизация λ -пенализованного отклонения эквивалентна максимизации λ -пенализованной логарифмической правдоподобности.

  • N - количество наблюдений.

  • λ является неотрицательным параметром регуляризации, соответствующим одному значению Lambda.

  • Параметрами β 0 и β являются скаляр и вектор длины p, соответственно.

Когда λ увеличивается, количество ненулевых компонентов β уменьшается.

Задача lasso включает в себя L1 норма β, противопоставленная алгоритму упругой сети.

Определение упругой сети для обобщенных линейных моделей

Для α строго между 0 и 1 и неотрицательной λ, упругая сеть решает задачу

minβ0,β(1NОтклонение(β0,β)+λPα(β)),

где

Pα(β)=(1α)2β22+αβ1=j=1p((1α)2βj2+α|βj|).

Эластичная сеть такая же, как и лассо, когда α = 1. Для других значений α срок штрафа (β) интерполируется между L1 норма β и квадратов L2 норма β. Когда α сжимается к 0, эластичная сеть приближается ridge регрессия.

Ссылки

[1] Tibshirani, R. Regression Shrinkage and Selection through the Lasso. Журнал Королевского статистического общества, серия B, том 58, № 1, стр. 267-288, 1996.

[2] Цзоу, Х. и Т. Хасти. Регуляризация и выбор переменных через упругую сеть. Журнал Королевского статистического общества, серия B, том 67, № 2, стр. 301-320, 2005.

[3] Фридман, Дж., Р. Тибширани и Т. Хасти. Пути регуляризации для обобщенных линейных моделей через спуск координат. Журнал статистического программного обеспечения, том 33, № 1, 2010. https://www.jstatsoft.org/v33/i01

[4] Хасти, Т., Р. Тибширани и Дж. Фридман. Элементы статистического обучения, 2-е издание. Спрингер, Нью-Йорк, 2008.

[5] McCullagh, P., and J. A. Nelder. Обобщенные линейные модели, 2-е издание. Chapman & Hall/CRC Press, 1989.