Регрессия частичных наименьших квадратов (PLS)
[
также возвращается:XL
,YL
,XS
,YS
,BETA
,PCTVAR
,MSE
,stats
] = plsregress(X
,Y
,ncomp
)
Баллы предиктора XS
. Баллы предиктора являются компонентами PLEASE, которые являются линейными комбинациями переменных в X
.
Баллы ответа YS
. Баллы ответа являются линейными комбинациями ответов с который компоненты PLEASE XS
имейте максимальную ковариацию.
Матрица A BETA
из коэффициента оценивает для регрессии PLEASE. plsregress
добавляет столбец из единиц в матричном X
вычислить содействующие оценки для модели с постоянными условиями (точка пересечения).
Процент отклонения PCTVAR
объясненный моделью регрессии.
Предполагаемые среднеквадратические ошибки MSE
для моделей PLEASE с ncomp
компоненты.
Структура stats
это содержит веса PLEASE, T 2 статистических величины, и остаточные значения ответа и предиктор.
[
задает опции с помощью одного или нескольких аргументов значения имени в дополнение к любой из комбинаций входных аргументов в предыдущих синтаксисах. Аргументы значения имени задают XL
,YL
,XS
,YS
,BETA
,PCTVAR
,MSE
,stats
] = plsregress(___,Name,Value
)MSE
параметры вычисления. Например, 'cv',5
вычисляет MSE
использование 5-кратной перекрестной проверки.
plsregress
использует алгоритм SIMPLS [1]. Функция сначала сосредотачивает X
и Y
путем вычитания столбца означает получать переменные прогноза и переменные отклика в центре X0
и Y0
, соответственно. Однако функция не перемасштабирует столбцы. Чтобы выполнить регрессию PLEASE со стандартизированными переменными, использовать zscore
нормировать X
и Y
(столбцы X0
и Y0
сосредотачиваются, чтобы иметь среднее значение 0 и масштабируются, чтобы иметь стандартное отклонение 1).
После центрирования X
и Y
, plsregress
вычисляет сингулярное разложение (SVD) на X0'*Y0
. Предиктор и загрузки ответа XL
и YL
коэффициенты, полученные из регрессирующего X0
и Y0
на предикторе выигрывают XS
. Можно восстановить данные в центре X0
и Y0
использование XS*XL'
и XS*YL'
, соответственно.
plsregress
первоначально вычисляет YS
как YS = Y0*YL
. Условно [1], однако, plsregress
затем ортогонализирует каждый столбец YS
относительно предыдущих столбцов XS
, так, чтобы XS'*YS
нижняя треугольная матрица.
[1] Де Йонг, Sijmen. “SIMPLS: Альтернативный Подход к Частичной Регрессии Наименьших квадратов”. Хемометрики и Интеллектуальные Лабораторные Системы 18, № 3 (март 1993): 251–63. https://doi.org/10.1016/0169-7439 (93) 85002-X.
[2] Rosipal, Роман и Николь Крамер. "Обзор и Недавние Усовершенствования в Частичных Наименьших квадратах". Подпространство, Скрытая Структура и Выбор признаков: Статистический и Семинар по Перспективам Оптимизации (SLSFS 2005), Пересмотренный, Выбрал Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, издание 3940, стр 34–51. https://doi.org/10.1007/11752790_2.
[3] Чон, Il-Gyo, и июнь Хи-Hyuck. “Эффективность Некоторых Методов Выбора переменной, Когда Мультиколлинеарность Присутствует”. Хемометрики и Интеллектуальные Лабораторные Системы 78, № 1-2 (июль 2005) 103–12. https://doi.org/10.1016/j.chemolab.2004.12.011.
pca
| regress
| sequentialfs