Частичная регрессия наименьших квадратов
[XL,YL] = plsregress(X,Y,ncomp)
[XL,YL,XS] = plsregress(X,Y,ncomp)
[XL,YL,XS,YS] = plsregress(X,Y,ncomp)
[XL,YL,XS,YS,BETA] = plsregress(X,Y,ncomp,...)
[XL,YL,XS,YS,BETA,PCTVAR] = plsregress(X,Y,ncomp)
[XL,YL,XS,YS,BETA,PCTVAR,MSE] = plsregress(X,Y,ncomp)
[XL,YL,XS,YS,BETA,PCTVAR,MSE] = plsregress(...,param1,val1,param2,val2,...)
[XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(X,Y,ncomp,...)
[XL,YL] = plsregress(X,Y,ncomp) вычисляет регрессию частичных наименьших квадратов (PLS) Y на X, использование ncomp Компоненты PLEASE, и возвращают предиктор и загрузки ответа в XL и YL, соответственно. X n-by-p матрица переменных предикторов, со строками, соответствующими наблюдениям и столбцам к переменным. Y n-by-m матрица ответа. XL p-by-ncomp матрица загрузок предиктора, где каждая строка содержит коэффициенты, которые задают линейную комбинацию компонентов PLEASE, которые аппроксимируют исходные переменные предикторы. YL m-by-ncomp матрица загрузок ответа, где каждая строка содержит коэффициенты, которые задают линейную комбинацию компонентов PLEASE, которые аппроксимируют исходные переменные отклика.
[XL,YL,XS] = plsregress(X,Y,ncomp) возвращает баллы предиктора XS, то есть, компоненты PLEASE, которые являются линейными комбинациями переменных в X. XS n-by-ncomp ортонормированная матрица со строками, соответствующими наблюдениям и столбцам к компонентам.
[XL,YL,XS,YS] = plsregress(X,Y,ncomp) возвращает баллы ответа YS, то есть, линейные комбинации ответов, с который компоненты PLEASE XS имейте максимальную ковариацию. YS n-by-ncomp матрица со строками, соответствующими наблюдениям и столбцам к компонентам. YS не является ни ортогональным, ни нормирован.
plsregress использует алгоритм SIMPLS, сначала сосредотачивая X и Y путем вычитания от столбца означает получать сосредоточенные переменные X0 и Y0. Однако это не перемасштабирует столбцы. Чтобы выполнить PLEASE со стандартизированными переменными, использовать zscore нормировать X и Y.
Если ncomp не использован, его значением по умолчанию является min(size(X,1)-1,size(X,2)).
Отношения между баллами, загрузками и сосредоточенными переменными X0 и Y0 :
XL = (XS\X0)' = X0'*XS,
YL = (XS\Y0)' = Y0'*XS,
XL и YL коэффициенты от регрессирующего X0 и Y0 на XS, и XS*XL' и XS*YL' приближения PLEASE к X0 и Y0.
plsregress первоначально вычисляет YS как:
YS = Y0*YL = Y0*Y0'*XS,
Условно, однако, plsregress затем ортогонализирует каждый столбец YS относительно предыдущих столбцов XS, так, чтобы XS'*YS является нижним треугольным.
[XL,YL,XS,YS,BETA] = plsregress(X,Y,ncomp,...) возвращает коэффициенты регрессии PLEASE BETA\beta (p +1)-by-m матрица, содержа условия прерывания в первой строке:
Y = [ones(n,1),X]*BETA + Yresiduals,
Y0 = X0*BETA(2:end,:) + Yresiduals. Здесь Yresiduals вектор из остаточных значений ответа.
[XL,YL,XS,YS,BETA,PCTVAR] = plsregress(X,Y,ncomp) возвращает 2 ncomp матричный PCTVAR содержание процента отклонения объяснено моделью. Первая строка PCTVAR содержит процент отклонения, объясненного в X каждым компонентом PLEASE и второй строкой содержит процент отклонения, объясненного в Y.
[XL,YL,XS,YS,BETA,PCTVAR,MSE] = plsregress(X,Y,ncomp) возвращает 2-by-(ncomp+1) матричный MSE содержание оценило среднеквадратические ошибки для моделей PLEASE с 0:ncomp компоненты. Первая строка MSE содержит среднеквадратические ошибки для переменных предикторов в X, и вторая строка содержит среднеквадратические ошибки для переменной (переменных) отклика в Y.
[XL,YL,XS,YS,BETA,PCTVAR,MSE] = plsregress(..., задает дополнительное название параметра / пары значения из следующей таблицы, чтобы управлять вычислением param1,val1,param2,val2,...)MSE.
| Параметр | Значение |
|---|---|
'cv' | Метод использовался для расчета
Значением по умолчанию является |
'mcreps' | Положительное целое число, указывающее на количество повторений Монте-Карло для перекрестной проверки. Значением по умолчанию является |
options | Структура, которая задает, запуститься ли параллельно, и задает случайный поток или потоки. Создайте
Чтобы вычислить параллельно, вам нужен Parallel Computing Toolbox™ |
[XL,YL,XS,YS,BETA,PCTVAR,MSE,stats] = plsregress(X,Y,ncomp,...) возвращает структуру stats со следующими полями:
W — p-by-ncomp матрица весов PLEASE так, чтобы XS = X0*W.
T2 — T 2 статистических величины для каждой точки в XS.
Xresiduals — Остаточные значения предиктора, то есть, X0-XS*XL'.
Yresiduals — Остаточные значения ответа, то есть, Y0-XS*YL'.
[1] Де Йонг, S. “SIMPLS: Альтернативный Подход к Частичной Регрессии Наименьших квадратов”. Хемометрики и Интеллектуальные Лабораторные Системы. Издание 18, 1993, стр 251–263.
[2] Rosipal, R. и Н. Крамер. “Обзор и Недавние Усовершенствования в Частичных Наименьших квадратах”. Подпространство, Скрытая Структура и Выбор признаков: Статистический и Семинар по Перспективам Оптимизации (SLSFS 2005), Пересмотренный, Выбрал Papers (Lecture Notes in Computer Science 3940). Берлин, Германия: Springer-Verlag, 2006, стр 34–51.