Регрессия частичных наименьших квадратов (PLS)
[ также возвращается:XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(X,Y,ncomp)
Баллы предиктора XS. Баллы предиктора являются компонентами PLEASE, которые являются линейными комбинациями переменных в X.
Баллы ответа YS. Баллы ответа являются линейными комбинациями ответов с который компоненты PLEASE XS имейте максимальную ковариацию.
Матрица A BETA из коэффициента оценивает для регрессии PLEASE. plsregress добавляет столбец из единиц в матричном X вычислить содействующие оценки для модели с постоянными терминами (точка пересечения).
Процент отклонения PCTVAR объясненный моделью регрессии.
Предполагаемые среднеквадратические ошибки MSE для моделей PLEASE с ncomp компоненты.
Структура stats это содержит веса PLEASE, T2 статистическая величина, и предиктор и остаточные значения ответа.
[ задает опции с помощью одних или нескольких аргументов name-value в дополнение к любой из комбинаций входных аргументов в предыдущих синтаксисах. Аргументы name-value задают XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(___,Name,Value)MSE параметры вычисления. Например, 'cv',5 вычисляет MSE использование 5-кратной перекрестной проверки.
plsregress использует алгоритм SIMPLS [1]. Функция сначала сосредотачивает X и Y путем вычитания столбца означает получать переменные прогноза и переменные отклика в центре X0 и Y0, соответственно. Однако функция не перемасштабирует столбцы. Чтобы выполнить регрессию PLEASE со стандартизированными переменными, использовать zscore нормировать X и Y (столбцы X0 и Y0 сосредотачиваются, чтобы иметь среднее значение 0 и масштабируются, чтобы иметь стандартное отклонение 1).
После центрирования X и Y, plsregress вычисляет сингулярное разложение (SVD) на X0'*Y0. Предиктор и загрузки ответа XL и YL коэффициенты, полученные из регрессирующего X0 и Y0 на предикторе выигрывают XS. Можно восстановить данные в центре X0 и Y0 использование XS*XL' и XS*YL', соответственно.
plsregress первоначально вычисляет YS как YS = Y0*YL. Условно [1], однако, plsregress затем ортогонализирует каждый столбец YS относительно предыдущих столбцов XS, так, чтобы XS'*YS нижняя треугольная матрица.
[1] Де Йонг, Sijmen. “SIMPLS: Альтернативный Подход к Частичной Регрессии Наименьших квадратов”. Хемометрики и Интеллектуальные Лабораторные Системы 18, № 3 (март 1993): 251–63. https://doi.org/10.1016/0169-7439 (93) 85002-X.
[2] Rosipal, Роман и Николь Крамер. "Обзор и Недавние Усовершенствования в Частичных Наименьших квадратах". Подпространство, Скрытая Структура и Выбор признаков: Статистический и Семинар по Перспективам Оптимизации (SLSFS 2005), Пересмотренный, Выбрал Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, издание 3940, стр 34–51. https://doi.org/10.1007/11752790_2.
[3] Чон, Il-Gyo, и июнь Хи-Hyuck. “Эффективность Некоторых Методов Выбора переменной, Когда Мультиколлинеарность Присутствует”. Хемометрики и Интеллектуальные Лабораторные Системы 78, № 1-2 (июль 2005) 103–12. https://doi.org/10.1016/j.chemolab.2004.12.011.
regress | sequentialfs | pca