Байесов рабочий процесс оптимизации

Что такое байесова оптимизация?

Оптимизация, в ее самой общей форме, является процессом определения местоположения точки, которая минимизирует действительную функцию, названную objective function. Байесова оптимизация является именем одного такого процесса. Байесова оптимизация внутренне поддерживает Гауссову модель процесса целевой функции и использует оценки целевой функции, чтобы обучить модель. Инновациями в Байесовой оптимизации является использование acquisition function, который использование алгоритма определить следующий вопрос, чтобы оценить. Функция приобретения может сбалансировать выборку в точках, которые низко смоделировали целевые функции и области исследования, которые еще не были смоделированы хорошо. Для получения дополнительной информации см. Байесов Алгоритм Оптимизации.

Байесова оптимизация является частью Statistics and Machine Learning Toolbox™, потому что это является подходящим к оптимизации hyperparameters алгоритмов регрессии и классификации. Гиперпараметр является внутренним параметром классификатора или функции регрессии, такой как ограничение поля машины вектора поддержки или темп обучения устойчивого ансамбля классификации. Эти параметры могут строго влиять на производительность классификатора или регрессора, и все же это обычно трудно или длительно, чтобы оптимизировать их. Смотрите Байесовы Характеристики Оптимизации.

Как правило, оптимизация гиперпараметров означает, что вы пытаетесь минимизировать потерю перекрестной проверки классификатора или регрессии.

Два способа выполнить байесовую оптимизацию

Можно выполнить Байесовую оптимизацию двумя отличными способами:

  • Подходящая функция — Включает пару "имя-значение" OptimizeHyperparameters во многие подходящие функции, чтобы иметь Байесовую оптимизацию, применяются автоматически. Оптимизация минимизирует потерю перекрестной проверки. Этот путь дает вам меньше настраивающихся опций, но позволяет вам выполнить Байесовую оптимизацию наиболее легко. Смотрите, что Байесова Оптимизация Использует Подходящую Функцию.

  • bayesopt — Осуществите большую часть контроля своей оптимизацией путем вызова bayesopt непосредственно. Этот путь требует, чтобы вы записали целевую функцию, которая не должна представлять потерю перекрестной проверки. Смотрите, что Байесова Оптимизация Использует bayesopt.

Байесова оптимизация Используя подходящую функцию

Чтобы минимизировать ошибку в перекрестном подтвержденном ответе через Байесовую оптимизацию, выполните эти шаги.

  1. Выберите свою классификацию или решатель регрессии среди fitcdiscr, fitcecoc, fitcensemble, fitckernel, fitcknn, fitclinear, fitcnb, fitcsvm, fitctree, fitrensemble, fitrgp, fitrkernel, fitrlinear, fitrsvm или fitrtree.

  2. Выберите гиперпараметры, чтобы оптимизировать, и передать их в паре "имя-значение" OptimizeHyperparameters. Для каждой подходящей функции можно выбрать из набора гиперпараметров. Смотрите Имеющие право Гиперпараметры для Подходящих Функций, или используйте функцию hyperparameters или консультируйтесь с подходящей страницей ссылки на функцию.

    Можно передать массив ячеек названий параметра. Можно также установить 'auto' как значение OptimizeHyperparameters, которое выбирает типичный набор гиперпараметров, чтобы оптимизировать, или 'all', чтобы оптимизировать все доступные параметры.

  3. Для функций подгонки ансамбля fitcecoc fitcensemble и fitrensemble, также включают параметры слабых учеников в массиве ячеек OptimizeHyperparameters.

  4. Опционально, создайте структуру опций для пары "имя-значение" HyperparameterOptimizationOptions. См. Опции Гипероптимизации параметров управления для Подходящих Функций.

  5. Вызовите подходящую функцию с соответствующими парами "имя-значение".

Для примеров смотрите, Оптимизируют Подгонку Классификатора SVM Используя Байесовую Оптимизацию и Оптимизируют Повышенный Ансамбль Регрессии. Кроме того, каждая подходящая страница ссылки на функцию содержит Байесов пример оптимизации.

Байесова оптимизация Используя bayesopt

Чтобы выполнить Байесовую оптимизацию с помощью bayesopt, выполните эти шаги.

  1. Подготовьте свои переменные. Смотрите Переменные для Байесовой Оптимизации.

  2. Создайте свою целевую функцию. Смотрите Байесовы Целевые функции Оптимизации. При необходимости создайте ограничения, также. Смотрите Ограничения в Байесовой Оптимизации.

  3. Выберите опции, имея в виду пары Name,Value bayseopt. Вы не обязаны передавать любые опции bayesopt, но вы обычно делаете, особенно при попытке улучшить решение.

  4. Вызовите bayesopt.

  5. Исследуйте решение. Можно решить возобновить оптимизацию при помощи resume или перезапустить оптимизацию, обычно с измененными опциями.

Для примера смотрите, Оптимизируют перекрестный Подтвержденный Классификатор SVM Используя bayesopt.

Байесовы характеристики оптимизации

Байесовы алгоритмы оптимизации подходят лучше всего для этих проблемных типов.

ХарактеристикаДетали
Низкая размерность

Байесова оптимизация работает лучше всего в небольшом числе размерностей, обычно 10 или меньше. В то время как Байесова оптимизация может решить некоторые проблемы с несколькими дюжинами переменных, она не рекомендуется для размерностей выше, чем приблизительно 50.

Дорогая цель

Байесова оптимизация разработана для целевых функций, которые не спешат оценивать. Это имеет значительные издержки, обычно несколько секунд для каждой итерации.

Низкая точность

Байесова оптимизация не обязательно дает очень точные результаты. Если у вас есть детерминированная целевая функция, можно иногда улучшать точность путем запуска стандартного алгоритма оптимизации с решения bayesopt.

Глобальное решение

Байесова оптимизация является глобальным методом. В отличие от многих других алгоритмов, чтобы искать глобальное решение вы не должны запускать алгоритм с различных начальных точек.

Гиперпараметры

Байесова оптимизация является подходящей к оптимизации hyperparameters другой функции. Гиперпараметр является параметром, который управляет поведением функции. Например, функция fitcsvm соответствует модели SVM к данным. Это имеет гиперпараметры BoxConstraint и KernelScale для его KernelFunction 'rbf'. Поскольку пример Байесовой оптимизации применился к гиперпараметрам, смотрите, Оптимизируют перекрестный Подтвержденный Классификатор SVM Используя bayesopt.

Параметры, доступные для подходящих функций

Имеющие право гиперпараметры для подходящих функций

FunctionName Имеющие право параметры
fitcdiscrDelta
Gamma
DiscrimType
fitcecocCoding
имеющие право fitcdiscr параметры для 'Learners','discriminant'
имеющие право fitckernel параметры для 'Learners','kernel'
имеющие право fitcknn параметры для 'Learners','knn'
имеющие право fitclinear параметры для 'Learners','linear'
имеющие право fitcsvm параметры для 'Learners','svm'
имеющие право fitctree параметры для 'Learners','tree'
fitcensembleMethod
NumLearningCycles
LearnRate
имеющие право fitcdiscr параметры для 'Learners','discriminant'
имеющие право fitcknn параметры для 'Learners','knn'
имеющие право fitctree параметры для 'Learners','tree'
fitckernel'Learner'
'KernelScale'
'Lambda'
'NumExpansionDimensions'
fitcknnNumNeighbors
Distance
DistanceWeight
Exponent
Standardize
fitclinearLambda
Learner
Regularization
fitcnbDistributionNames
Width
Kernel
fitcsvmBoxConstraint
KernelScale
KernelFunction
PolynomialOrder
Standardize
fitctreeMinLeafSize
MaxNumSplits
SplitCriterion
NumVariablesToSample
fitrensembleMethod
NumLearningCycles
LearnRate
имеющие право fitrtree параметры для 'Learners','tree':
MinLeafSize
MaxNumSplits
NumVariablesToSample
fitrgpSigma
BasisFunction
KernelFunction
KernelScale
Standardize
fitrkernelLearner
KernelScale
Lambda
NumExpansionDimensions
Epsilon
fitrlinearLambda
Learner
Regularization
fitrsvmBoxConstraint
KernelScale
Epsilon
KernelFunction
PolynomialOrder
Standardize
fitrtreeMinLeafSize
MaxNumSplits
NumVariablesToSample

Опции гипероптимизации параметров управления для подходящих функций

При оптимизации использования подходящей функции вы имеете эти опции в наличии в паре "имя-значение" HyperparameterOptimizationOptions. Дайте значение как структуру. Все поля в структуре являются дополнительными.

Имя поляЗначенияЗначение по умолчанию
Optimizer
  • 'bayesopt' — Используйте Байесовую оптимизацию. Внутренне, эта установка вызывает bayesopt.

  • 'gridsearch' — Используйте поиск сетки со значениями NumGridDivisions на размерность.

  • 'randomsearch' — Ищите наугад среди точек MaxObjectiveEvaluations.

'gridsearch' ищет в произвольном порядке, с помощью универсальной выборки без замены от сетки. После оптимизации можно получить таблицу в порядке сетки при помощи команды sortrows(Mdl.HyperparameterOptimizationResults).

'bayesopt'
AcquisitionFunctionName

  • 'expected-improvement-per-second-plus'

  • 'expected-improvement'

  • 'expected-improvement-plus'

  • 'expected-improvement-per-second'

  • 'lower-confidence-bound'

  • 'probability-of-improvement'

Приобретение функционирует, чьи имена включают per-second, не приводят к восстанавливаемым результатам, потому что оптимизация зависит от времени выполнения целевой функции. Приобретение функционирует, чьи имена включают plus, изменяют их поведение, когда они сверхиспользуют область. Для получения дополнительной информации смотрите Типы Функции Приобретения.

'expected-improvement-per-second-plus'
MaxObjectiveEvaluationsМаксимальное количество оценок целевой функции.30 для 'bayesopt' или 'randomsearch' и целой сетки для 'gridsearch'
MaxTime

Ограничение по времени, заданное как положительное действительное. Ограничение по времени находится в секундах, как измерено tic и toc. Время выполнения может превысить MaxTime, потому что MaxTime не делает оценок функции обработки прерываний.

Inf
NumGridDivisionsДля 'gridsearch', количества значений в каждой размерности. Значение может быть вектором положительных целых чисел, дающих количество значений для каждой размерности или скаляр, который применяется ко всем размерностям. Это поле проигнорировано для категориальных переменных.10
ShowPlotsЛогическое значение, указывающее, показать ли графики. Если true, это поле строит лучшее значение целевой функции против номера итерации. Если существуют один или два параметра оптимизации, и если Optimizer является 'bayesopt', то ShowPlots также строит модель целевой функции против параметров.true
SaveIntermediateResultsЛогическое значение, указывающее, сохранить ли результаты, когда Optimizer является 'bayesopt'. Если true, это поле перезаписывает переменную рабочей области под названием 'BayesoptResults' в каждой итерации. Переменная является объектом BayesianOptimization.false
Verbose

Отобразитесь к командной строке.

  • 0 — Никакое итеративное отображение

  • 1 — Итеративное отображение

  • 2 — Итеративное отображение с дополнительной информацией

Для получения дополнительной информации смотрите аргумент пары "имя-значение" bayesopt Verbose.

1
UseParallelЛогическое значение, указывающее, запустить ли Байесовую оптимизацию параллельно, которая требует Parallel Computing Toolbox™. Для получения дополнительной информации смотрите Параллельную Байесовую Оптимизацию.false
Repartition

Логическое значение, указывающее, повторно разделить ли перекрестную проверку в каждой итерации. Если false, оптимизатор использует один раздел для оптимизации.

true обычно дает большинство устойчивых результатов, потому что эта установка принимает шум разделения во внимание. Однако для хороших результатов, true требует, по крайней мере, вдвое большего количества функциональных оценок.

false
Используйте не больше, чем одни из следующих трех имен полей.
CVPartitionОбъект cvpartition, как создано cvpartition.'Kfold',5, если вы не задаете поля перекрестной проверки
HoldoutСкаляр в области значений (0,1), представляющий часть затяжки.
KfoldЦелое число, больше, чем 1.
Для просмотра документации необходимо авторизоваться на сайте