Подмножество метода приближения регрессоров (SR) состоит из замены функции ядра в точном методе GPR по его приближению , учитывая активный набор . Можно задать метод SR для оценки параметра при помощи 'FitMethod','sr'
аргумент пары "имя-значение" в вызове fitrgp
. Для предсказания с помощью SR можно использовать 'PredictMethod','sr'
аргумент пары "имя-значение" в вызове fitrgp
.
Для точной модели GPR ожидаемое предсказание в GPR зависит от набора функции , где - набор индексов всех наблюдений, и n - общее количество наблюдений. Идея состоит в том, чтобы аппроксимировать диапазон этих функций меньшим набором функций, , где - подмножество индексов точек, выбранных в активном наборе. Рассмотреть . Цель состоит в том, чтобы аппроксимировать элементы как линейные комбинации элементов .
Предположим, что приближение к использование функций в является следующим:
где являются коэффициентами линейной комбинации для аппроксимации . Предположим - матрица, содержащая все коэффициенты; . Затем, , является матрица такая, что . Программное обеспечение находит лучшее приближение к элементам использование активного набора путем минимизации функции ошибки
где - Пространства воспроизводящего ядра Гильберта (RKHS), сопоставленный с функцией ядра k [1], [2].
Матрица коэффициентов, которая минимизирует является
и приближение к функции ядра с помощью элементов в активном наборе является
Приближение SR к функции ядра с помощью активного набора определяется как:
и приближение SR к является:
Замена около в предельной функции журнала правдоподобия создает свои приближения SR:
Как и в точном методе, программное обеспечение оценивает параметры путем первых вычислений , оптимальная оценка , заданный и . Тогда это оценивает , и использование -профилированная маргинальная вероятность журнала. Оценка SR для для данного , и является:
где
И приближение SR к -профилированная маргинальная вероятность журнала:
SR приближения с распределением данный , , является
где и являются ли приближения SR, и показан в предсказании с использованием точного метода GPR.
и получаются заменой по его SR приближения в и , соответственно.
То есть,
С тех пор
и от того, что , может быть написано как
Точно так же, получают следующим образом:
Поскольку
найдено следующим образом:
Одним из недостатков метода SR является то, что он может давать неоправданно маленькие прогнозирующие отклонения при выполнении предсказаний в области, удаленной от выбранного активного множества . Рассмотрите создание предсказания в новой точке что далеко от набора обучающих данных . Другими словами, предположим, что .
Для точного GPR, апостериорное распределение данный , и был бы Нормальным со средним и отклонение . Это значение верно в том смысле, что, если далеко от , затем данные не предоставляет никакой новой информации о и поэтому апостериорное распределение данный , , и должно уменьшиться до предыдущего распределения данный , которое является Нормальным распределением со средним и отклонение .
Для приближения SR, если далеко от (и, следовательно, также далеко от ), затем и . Таким образом, в этом крайнем случае, соглашается с от точного GPR, но необоснованно мало по сравнению с из точного GPR.
Полностью независимый метод условного приближения может помочь избежать этой проблемы.
[1] Расмуссен, К. Э. и К. К. И. Уильямс. Гауссовы процессы для машинного обучения. MIT Press. Кембридж, Массачусетс, 2006.
[2] Смола, А. Й. и Б. Шёкопф. Разреженное жадное матричное приближение для машинного обучения. В работе семнадцатой Международной конференции по машинному обучению, 2000 год.