Регрессия частичных наименьших квадратов (PLS)
[ также возвращает:XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(X,Y,ncomp)
Оценки предиктора XS. Оценки предиктора - это компоненты PLS, которые являются линейными комбинациями переменных в X.
Показатели ответа YS. Оценки ответов представляют собой линейные комбинации ответов, с которыми компоненты PLS XS имеют максимальную ковариацию.
Матрица BETA оценок коэффициентов для регрессии ПЛС. plsregress добавляет столбец единиц в матрицу X для вычисления оценок коэффициентов для модели с постоянными членами (перехват).
Процент отклонения PCTVAR объясняется регрессионной моделью.
Предполагаемые среднеквадратичные ошибки MSE для моделей PLS с ncomp компоненты.
Структура stats который содержит веса PLS, статистику T2, а также предикторы и остатки ответа.
[ указывает параметры, использующие один или несколько аргументов «имя-значение» в дополнение к любой из комбинаций входных аргументов в предыдущих синтаксисах. Аргументы «имя-значение» указывают XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(___,Name,Value)MSE параметры расчета. Например, 'cv',5 вычисляет MSE с использованием пятикратной перекрестной проверки.
plsregress использует алгоритм SIMPLS [1]. Функция сначала центрирует X и Y вычитанием значения столбца для получения центрированных переменных предиктора и отклика X0 и Y0соответственно. Однако функция не выполняет масштабирование столбцов. Для выполнения регрессии ПЛС со стандартизированными переменными используйте zscore нормализовать X и Y (столбцы X0 и Y0 центрированы, чтобы иметь среднее значение 0, и масштабированы, чтобы иметь стандартное отклонение 1).
После центрирования X и Y, plsregress вычисляет разложение сингулярных значений (SVD) на X0'*Y0. Предиктор и нагрузки ответа XL и YL являются коэффициентами, полученными при регрессии X0 и Y0 на балле предиктора XS. Можно реконструировать центрированные данные X0 и Y0 использование XS*XL' и XS*YL'соответственно.
plsregress первоначально вычисляет YS как YS = Y0*YL. По конвенции [1], однако, plsregress затем ортогонализует каждый столбец YS по отношению к предыдущим столбцам XS, так что XS'*YS - нижняя треугольная матрица.
[1] де Йонг, Сиджмен. «SIMPLS: альтернативный подход к частичной регрессии методом наименьших квадратов». Хемометрия и интеллектуальные лабораторные системы 18, № 3 (март 1993 года): 251-63. https://doi.org/10.1016/0169-7439 (93) 85002-X.
[2] Росипал, Роман и Николь Крамер. «Обзор и последние изменения в частичных наименьших квадратах». Subpace, Latent Structure and Feature Selection: Statistics and Optimization Perspectives Workshop (SLSFS 2005), Revised Selected Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, том 3940, стр. 34-51. https://doi.org/10.1007/11752790_2.
[3] Chong, Il-Gyo и Chi-Hyuck Jun. «Производительность некоторых методов выбора переменных при наличии мультиколлинеарности». Хемометрия и интеллектуальные лабораторные системы 78, № 1-2 (июль 2005 года) 103-12. https://doi.org/10.1016/j.chemolab.2004.12.011.
pca | regress | sequentialfs