Подмножество регрессоров (SR) метод приближения состоит из замены ядерной функции ) в точном методе GPR его приближением A), учитывая активный n}. Можно указать метод SR для оценки параметров с помощью 'FitMethod','sr' аргумент пары имя-значение в вызове fitrgp. Для прогнозирования с использованием SR можно использовать 'PredictMethod','sr' аргумент пары имя-значение в вызове fitrgp.
Для точной модели GPR ожидаемое предсказание в GPR зависит от набора функций 1,2,..., {1,2,..., n} - набор индексов всех наблюдений, а n - общее число наблюдений. Идея заключается в аппроксимации диапазона этих функций меньшим набором функцийA⊂N={1,2,..., n} - подмножество индексов точек, выбранных для нахождения в активном {k (x, xj 'start), j∈A}. Целью является элементов SN в виде линейных комбинаций элементов SA.
Предположим, что аппроксимация k xr 'start) с использованием функций SA выглядит следующим образом:
'θ),
где - коэффициенты линейной комбинации для аппроксимации xr ' , что C является матрицей, которая содержит все cjr. Затем C представляет собой | × n матрицу, такую, , r) = cjr. Программа находит наилучшее приближение к элементам SN с помощью A⊂N={1,2,..., n} путём минимизации функции ошибки
) 2,
где - воспроизводящее ядро гильбертовых пространств (RKHS), связанное с функцией ядра k [1], [2].
Матрица коэффициентов, которая минимизирует C),
'θ),
и аппроксимация функции ядра с использованием элементов в активном наборе } равно
(: r).
Аппроксимация SR к функции ядра с использованием активного набора } определяется как:
(XA, xrT 'θ)
и SR аппроксимация до X '
X 'θ).
Заменение ) A) в крайней функции вероятности регистрации производит свое приближение SR:
Как и в точном методе, программное обеспечение оценивает параметры, предварительно вычисляя start2), оптимальную оценку β, заданную startи start2. Затем он оценивает start, start2 с помощью β-профилированного маргинального логарифмического правдоподобия. Оценка SR до β для данного start, start2 является:
−1y ︸ **,
где
σ2AA−1K (XA, X 'θ) yσ2.
И SR аппроксимация к β-профилированному предельному логарифмическому правдоподобию:
'θ, A) + σ2In |.
Аппроксимация SR для распределения , заданного , , , равна
,
где и - аппроксимации SR, которые показаны в прогнозе с использованием точного метода GPR.
и получают заменой xr '
То есть
(2) (y−Hβ).
С тех пор
'
XA, X 'θ) σ2,
а из того, что + − 1, мкSR можно записать как
σ2 (y−Hβ).
Точно так же получают следующим образом:
, A) ︸ ****.
Поскольку
xnewT 'θ),
μSR,
xnewT 'θ),
обнаруживается следующим образом:
xnewT 'θ).
Один из недостатков метода SR заключается в том, что он может давать неоправданно малые предиктивные дисперсии при выполнении предсказаний в области, далёкой от выбранного активного множества }. Подумайте о том, чтобы сделать прогноз в новой точке xnew, которая находится далеко от обучающего набора X. Другими словами, предположим, что ) ≈0.
Для точного GPR задним распределением , заданного , и , будет Normal со средним 0 и xnew 'start). Это значение является правильным в том смысле, если xnew находится далеко от X, то (X, y) не предоставляют никакой новой информации о fnew, и поэтому апостериорное fnew, данное y, и xnew, должно быть уменьшено до предыдущего распределения fnew, заданного xnew, которое является нормальным распределением средним значением 0 и , xnew 'start).
Для приближения SR, если далеко от (и следовательно также далеко от ), то и . Таким образом, в этом крайнем случае, согласуется с из точного GPR, но необоснованно мал по сравнению с из точного GPR.
Полностью независимый метод условного приближения может помочь избежать этой проблемы.
[1] Расмуссен, К. Э. и К. К. И. Уильямс. Гауссовы процессы машинного обучения. Пресс MIT. Кембридж, Массачусетс, 2006.
[2] Смола, А. Дж. и Б. Шёкопф. «Скудное жадное матричное приближение для машинного обучения». В материалах семнадцатой Международной конференции по машинному обучению, 2000 год.