Частичная регрессия методом наименьших квадратов (PLS)
[
также возвращает:XL
,YL
,XS
,YS
,BETA
,PCTVAR
,MSE
,stats
] = plsregress(X
,Y
,ncomp
)
Предиктор оценивает XS
. Счета предиктора являются компонентами PLS, которые являются линейными комбинациями переменных в X
.
Ответ оценивает YS
. Счета отклика являются линейными комбинациями откликов, с которыми компоненты PLS XS
имеют максимальную ковариацию.
A матрицы BETA
оценок коэффициентов для регрессии PLS. plsregress
добавляет столбец таковых в матрицу X
вычислить оценки коэффициентов для модели с постоянными терминами (точка пересечения).
Процент отклонений PCTVAR
объясняется регрессионной моделью.
Предполагаемые средние квадратичные невязки MSE
для моделей PLS с ncomp
компоненты.
Структурный stats
который содержит веса PLS, T2 статистические, и предикторные и ответные остатки.
[
задает опции, использующие один или несколько аргументов имя-значение в дополнение к любой комбинации входных аргументов в предыдущих синтаксисах. Аргументы имя-значение задают XL
,YL
,XS
,YS
,BETA
,PCTVAR
,MSE
,stats
] = plsregress(___,Name,Value
)MSE
параметры вычисления. Для примера, 'cv',5
вычисляет MSE
использование 5-кратной перекрестной проверки.
plsregress
использует алгоритм SIMPLS [1]. Функция сначала центрирует X
и Y
путем вычитания столбца означает получить центрированные переменные предиктора и отклика X0
и Y0
, соответственно. Однако функция не перекраивает столбцы. Чтобы выполнить регрессию PLS со стандартизированными переменными, используйте zscore
для нормализации X
и Y
(столбцы X0
и Y0
центрированы, чтобы иметь среднее 0 и масштабированы, чтобы иметь стандартное отклонение 1).
После центрирования X
и Y
, plsregress
вычисляет сингулярное разложение (SVD) на X0'*Y0
. Предиктор и загрузки на ответ XL
и YL
являются ли коэффициенты, полученные при регрессии X0
и Y0
на счет предиктора XS
. Можно восстановить центрированные данные X0
и Y0
использование XS*XL'
и XS*YL'
, соответственно.
plsregress
первоначально вычисляет YS
как YS = Y0*YL
. По соглашению [1], однако, plsregress
затем ортогонализует каждый столбец YS
относительно предыдущих столбцов XS
, так что XS'*YS
является нижней треугольной матрицей.
[1] де Йонг, Сижмен. SIMPLS: альтернативный подход к частичной регрессии методом наименьших квадратов. Химометрия и интеллектуальные лабораторные системы 18, № 3 (март 1993): 251-63. https://doi.org/10.1016/0169-7439 (93) 85002-X.
[2] Розипал, Роман и Николь Крамер. «Обзор и последние усовершенствования в частичных наименьших квадратах». Subspace, Latent Structure and Выбора признаков: Statistical and Optimization Perspectives Workshop (SLSFS 2005), Revised Selected Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, vol. 3940, pp. 34-51. https://doi.org/10.1007/11752790_2.
[3] Chong, Il-Gyo, and Chi-Hyuck Jun. «Эффективность некоторых переменных методов выбора, когда присутствует мультиколлинеарность». Химометрия и интеллектуальные лабораторные системы 78, № 1-2 (июль 2005) 103-12. https://doi.org/10.1016/j.chemolab.2004.12.011.
pca
| regress
| sequentialfs