Образец y отклика из модели регрессии Гауссова процесса (GPR) может быть смоделирован как
Следовательно, для предсказаний новых данных из модели GPR требуется:
Знание вектора коэффициентов, , функций фиксированного базиса
Способность оценивать ковариационную функцию для произвольных и , учитывая параметры ядра или гиперпараметры, .
Знание отклонения шума который появляется в плотности
То есть сначала нужно оценить , , и из данных .
Один из подходов к оценке параметров , , и модели GPR является путем максимизации вероятности как функцию , , и [1]. То есть, если , , и являются оценками , , и , соответственно, затем:
Поскольку
предельная функция журнала правдоподобия следующая:
где является вектором явных базисных функций, и - ковариация функций (для получения дополнительной информации см. «Регрессионые модели Гауссова процесса»).
Чтобы оценить параметры, программное обеспечение сначала вычисляет , который максимизирует журнал функцию правдоподобия относительно для данного и . Затем он использует эту оценку, чтобы вычислить -профилированная вероятность:
Смета для данного , и является
Затем, -профинированная вероятность журнала определяется
Затем программное обеспечение максимизирует -профилед логарифмической правдоподобности над , и чтобы найти их оценки.
Для выполнения вероятностных предсказаний из модели GPR с известными параметрами требуется плотность . Используя определение условных вероятностей, можно записать:
Чтобы найти плотность соединений в числителе, необходимо ввести латентные переменные и соответствующий , и , соответственно. Тогда можно использовать распределение соединений для , , , и вычислить :
Гауссовы модели процесса предполагают, что каждый ответ зависит только от соответствующей скрытой переменной и вектор функции . Написание как продукт условных плотностей и на основе этого предположения дает:
После интегрирования относительно , результат зависит только от и :
Следовательно,
Снова используя определение условных вероятностей,
есть возможность написать следующим образом:
Используя факты, которые
и
можно переписать следующим образом:
Также возможно показать, что
Следовательно, необходимая плотность является:
Можно показать, что
После интегрирования и необходимой алгебры, плотность нового отклика в новой точке , заданный , найдено как
где
и
Ожидаемое значение предсказания в новой точке данный , , и параметры , , и является
где
Настройка модели GPR с помощью точного метода (когда FitMethod
является 'Exact'
) требует инверсии n -by n матрицы ядра . Требование к памяти для этого шага масштабируется как O (n2) с должна храниться в памяти. Одна оценка масштабируется как O (n3). Поэтому вычислительная сложность является O (k n3), где k количество вычислений функции, необходимых для максимизации, и n количество наблюдений.
Создание предсказаний по новым данным включает в себя расчет . Если желательны интервалы предсказания, этот шаг может также включать расчет и хранение фактора Холецкого для дальнейшего использования. Вычислительная сложность этого шага с помощью прямого расчета есть O (n3) и требованием памяти является O (n2).
Следовательно, для больших n оценка параметров или вычислительные предсказания могут быть очень дорогими. Методы приближения обычно включают реорганизацию расчета так, чтобы избежать инверсии матрицы n -by n. Для получения информации о доступных методах приближения см. соответствующие ссылки в нижней части страницы.
[1] Расмуссен, К. Э. и К. К. И. Уильямс. Гауссовы процессы для машинного обучения. MIT Press. Кембридж, Массачусетс, 2006.