Экземпляр ответа y из модели регрессии гауссова процесса (GPR) может быть смоделирован как
f (xi), start2)
Следовательно, составление прогнозов для новых данных из модели GPR требует:
Знание вектора коэффициентов, , фиксированных базисных функций
Способность оценивать ковариационную функцию ) для произвольных x и ′, учитывая параметры ядра или гиперпараметры,
Знание дисперсии шума, появляется в плотности xi)
То есть, сначала нужно оценить , по данным ).
Один из подходов для оценки параметров , , и модели GPR заключается в максимизации вероятности ) как функции β, start, и start2 [1]. То есть, β start^, λ ^ 2 являются оценками β, startи start2 соответственно, то:
).
Поскольку
,
функция предельного логарифмического правдоподобия выглядит следующим образом:
'
где - вектор явных базисных функций, а X 'start) - матрица ковариационных функций (для получения дополнительной информации см. Модели регрессии гауссова процесса).
Для оценки параметров программное обеспечение сначала вычисляет start2), что максимизирует логарифмическую функцию правдоподобия по отношению к β для заданных Затем он использует эту оценку для вычисления вероятности β-профилирования:
(
Оценка для данного
Затем β-профилированное логарифмическое правдоподобие задается
X, X 'θ) + σ2In |
Затем программное обеспечение максимизирует β-профилированное логарифмическое правдоподобие над
Выполнение вероятностных прогнозов из модели GPR с известными параметрами требует плотности xnew). Используя определение условных вероятностей, можно записать:
y 'X, xnew).
Чтобы найти плотность соединения в числителе, необходимо ввести скрытые переменные и , соответствующие и соответственно. Затем можно использовать совместное распределение для , , и для вычисления xnew):
) dfdfnew.
Модели гауссовых процессов предполагают, что каждый отклик зависит только от соответствующей скрытой переменной и вектора признаков xi. Запись xnew) как произведение условных плотностей и на основе этого предположения производит:
yi 'f (xi), xi).
После интегрирования относительно результат зависит только от и :
Tβ + fi, start2).
Следовательно,
y 'f, X).
Снова используя определение условных вероятностей,
(f 'X, xnew),
можно записать xnew) следующим образом:
, xnew) dfdfnew.
Используя факты, которые
(f' X)
и
f' y, X) P (y 'X),
можно переписать xnew) следующим образом:
, xnew) dfdfnew.
Также можно показать, что
y' X).
Следовательно, требуемая плотность xnew) равна:
X, xnew) ︸ (3) dfdfnew.
Можно показать, что
fnew,
(X, X) −1) −1)
) K (X, X) − 1K (X
После интегрирования и требуемой алгебры плотность нового ответа в новой точке , учитывая , , обнаруживается как
где
− 1 (y − Hβ) ︸ α
и
− 1K (X, xnewT).
Ожидаемое значение предсказания в новой точке , заданной , и параметрами
xnew, xi 'θ),
где
1 (y − Hβ).
Обучение модели GPR точному методу (когда FitMethod является 'Exact') требует инверсии матрицы X) ядра n-на-n. Требования к памяти для этого шага масштабируются как O (n2), X, X) должны храниться в памяти. Одна (y 'X) шкала как O (n3). Следовательно, вычислительная сложность равна O (kn3), где k - количество оценок функций, необходимых для максимизации, а n - количество наблюдений.
Составление прогнозов по новым данным включает в себя вычисление ^. Если интервалы прогнозирования желательны, этот этап может также включать вычисление и сохранение коэффициента Холески σ2In) для последующего использования. Вычислительная сложность этого шага с использованием прямого α ^ равна O (n3), а потребность в памяти равна O (n2).
Следовательно, для больших n оценка параметров или вычислительные прогнозы могут быть очень дорогостоящими. Способы аппроксимации обычно включают в себя перегруппировку вычислений так, чтобы избежать инверсии матрицы n-на-n. Доступные методы аппроксимации см. в соответствующих ссылках в нижней части страницы.
[1] Расмуссен, К. Э. и К. К. И. Уильямс. Гауссовы процессы машинного обучения. Пресс MIT. Кембридж, Массачусетс, 2006.