Частичная регрессия методом наименьших квадратов (PLS)
[ также возвращает:XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(X,Y,ncomp)
Предиктор оценивает XS. Счета предиктора являются компонентами PLS, которые являются линейными комбинациями переменных в X.
Ответ оценивает YS. Счета отклика являются линейными комбинациями откликов, с которыми компоненты PLS XS имеют максимальную ковариацию.
A матрицы BETA оценок коэффициентов для регрессии PLS. plsregress добавляет столбец таковых в матрицу X вычислить оценки коэффициентов для модели с постоянными терминами (точка пересечения).
Процент отклонений PCTVAR объясняется регрессионной моделью.
Предполагаемые средние квадратичные невязки MSE для моделей PLS с ncomp компоненты.
Структурный stats который содержит веса PLS, T2 статистические, и предикторные и ответные остатки.
[ задает опции, использующие один или несколько аргументов имя-значение в дополнение к любой комбинации входных аргументов в предыдущих синтаксисах. Аргументы имя-значение задают XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(___,Name,Value)MSE параметры вычисления. Для примера, 'cv',5 вычисляет MSE использование 5-кратной перекрестной проверки.
plsregress использует алгоритм SIMPLS [1]. Функция сначала центрирует X и Y путем вычитания столбца означает получить центрированные переменные предиктора и отклика X0 и Y0, соответственно. Однако функция не перекраивает столбцы. Чтобы выполнить регрессию PLS со стандартизированными переменными, используйте zscore для нормализации X и Y (столбцы X0 и Y0 центрированы, чтобы иметь среднее 0 и масштабированы, чтобы иметь стандартное отклонение 1).
После центрирования X и Y, plsregress вычисляет сингулярное разложение (SVD) на X0'*Y0. Предиктор и загрузки на ответ XL и YL являются ли коэффициенты, полученные при регрессии X0 и Y0 на счет предиктора XS. Можно восстановить центрированные данные X0 и Y0 использование XS*XL' и XS*YL', соответственно.
plsregress первоначально вычисляет YS как YS = Y0*YL. По соглашению [1], однако, plsregress затем ортогонализует каждый столбец YS относительно предыдущих столбцов XS, так что XS'*YS является нижней треугольной матрицей.
[1] де Йонг, Сижмен. SIMPLS: альтернативный подход к частичной регрессии методом наименьших квадратов. Химометрия и интеллектуальные лабораторные системы 18, № 3 (март 1993): 251-63. https://doi.org/10.1016/0169-7439 (93) 85002-X.
[2] Розипал, Роман и Николь Крамер. «Обзор и последние усовершенствования в частичных наименьших квадратах». Subspace, Latent Structure and Выбора признаков: Statistical and Optimization Perspectives Workshop (SLSFS 2005), Revised Selected Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, vol. 3940, pp. 34-51. https://doi.org/10.1007/11752790_2.
[3] Chong, Il-Gyo, and Chi-Hyuck Jun. «Эффективность некоторых переменных методов выбора, когда присутствует мультиколлинеарность». Химометрия и интеллектуальные лабораторные системы 78, № 1-2 (июль 2005) 103-12. https://doi.org/10.1016/j.chemolab.2004.12.011.
pca | regress | sequentialfs