После выбора определенного типа модели для обучения, например дерева решений или машины опорных векторов (SVM), можно настроить модель, выбрав различные расширенные опции. Для примера можно изменить максимальное количество разделений для дерева решений или прямоугольного ограничения SVM. Некоторые из этих опций являются внутренними параметрами модели, или гиперпараметрами, которые могут сильно повлиять на ее эффективность. Вместо того, чтобы вручную выбирать эти опции, можно использовать оптимизацию гипероптимизации параметров управления в приложении Classification Learner, чтобы автоматизировать выбор значений гиперзначений параметров. Для заданного типа модели приложение пробует различные комбинации значений гиперзначений параметров с помощью схемы оптимизации, которая стремится минимизировать ошибку классификации модели и возвращает модель с оптимизированными гиперпараметрами. Можно использовать получившуюся модель так же, как и любую другую обученную модель.
Примечание
Поскольку оптимизация гиперпараметра может привести к избыточной модели, рекомендуемый подход состоит в том, чтобы создать отдельный тестовый набор перед импортом ваших данных в приложение Classification Learner. После обучения оптимизируемой модели, можно увидеть, как она работает на вашем тестовом наборе. Для получения примера смотрите Train Classifier Using Гипероптимизации параметров управления Optimization in Classification Learner Приложения.
Чтобы выполнить оптимизацию гипероптимизации параметров управления в Classification Learner, выполните следующие шаги:
Выберите тип модели и решите, какие гиперпараметры оптимизировать. См. «Выбор гиперпараметров для оптимизации».
Примечание
Гипероптимизация параметров управления не поддерживается для моделей логистической регрессии или нейронной сети.
(Необязательно) Укажите, как выполняется оптимизация. Для получения дополнительной информации см. Опции оптимизации.
Обучите свою модель. Используйте график минимальной ошибки классификации, чтобы отследить результаты оптимизации.
Осмотрите свою обученную модель. Смотрите Результаты Оптимизации.
В приложении Classification Learner, в Model Type разделе вкладки Classification Learner, щелкните стреле, чтобы открыть галерею. Галерея включает оптимизируемые модели, которые можно обучить с помощью оптимизации гипероптимизации параметров управления.
После выбора оптимизируемой модели можно выбрать, какой из ее гиперпараметров необходимо оптимизировать. В Model Type разделе выберите Advanced > Advanced. Приложение открывает диалоговое окно, в котором можно установить Optimize флажки для гиперпараметров, которые вы хотите оптимизировать. В разделе Values задайте фиксированные значения для гиперпараметров, которые вы не хотите оптимизировать или которые не оптимизируются.
Эта таблица описывает гиперпараметры, которые можно оптимизировать для каждого типа модели, и область значений поиска каждого гиперпараметра. Он также включает дополнительные гиперпараметры, для которых можно задать фиксированные значения.
Модель | Оптимизируемые гиперпараметры | Дополнительные гиперпараметры | Примечания |
---|---|---|---|
Optimizable Tree |
|
| Для получения дополнительной информации см. Раздел «Дополнительные опции дерева». |
Optimizable Discriminant |
|
Для получения дополнительной информации см. Раздел «Расширенные опции дискриминации». | |
Optimizable Naive Bayes |
|
|
Для получения дополнительной информации смотрите Расширенные наивные опции Байеса. |
Optimizable SVM |
|
Дополнительные сведения см. в разделе Дополнительные опции SVM. | |
Optimizable KNN |
| Для получения дополнительной информации см. раздел Дополнительные опции KNN. | |
Optimizable Ensemble |
|
|
Для получения дополнительной информации см. раздел «Дополнительные опции ансамбля». |
По умолчанию приложение Classification Learner выполняет настройку гиперпараметра с помощью байесовской оптимизации. Цель байесовской оптимизации и оптимизации в целом состоит в том, чтобы найти точку, которая минимизирует целевую функцию. В контексте настройки гиперпараметра в приложении точка является набором значений гиперзначений параметров, и целевой функцией является функция потерь или ошибка классификации. Для получения дополнительной информации об основах байесовской оптимизации см. Bayesian Optimization Workflow.
Можно задать, как выполняется настройка гиперпараметра. Для примера можно изменить метод оптимизации на поиск по сетке или ограничить время обучения. На вкладке Classification Learner, в разделе Model Type, выберите Advanced > Optimizer Options. Приложение открывает диалоговое окно, в котором можно выбрать опции оптимизации.
В этой таблице описываются доступные опции оптимизации и их значения по умолчанию.
Опция | Описание |
---|---|
Optimizer | Значения оптимизатора:
|
Acquisition function | Когда приложение выполняет байесовскую оптимизацию для настройки гиперпараметра, оно использует функцию сбора, чтобы определить следующий набор значений гиперзначений параметров, чтобы попытаться. Значения функции сбора:
Для получения дополнительной информации о том, как эти функции приобретения работают в контексте байесовской оптимизации, смотрите Типы функций приобретения. |
Iterations | Каждая итерация соответствует комбинации значений гиперзначений параметров, которую пробует приложение. Когда вы используете байесовскую оптимизацию или случайный поиск, задайте положительное целое число, которое устанавливает количество итераций. Значение по умолчанию Когда вы используете поиск по сетке, приложение игнорирует значение Iterations и оценивает потери в каждой точке всей сетки. Можно задать предел времени обучения, чтобы остановить процесс оптимизации преждевременно. |
Training time limit | Чтобы установить предел по времени обучения, выберите эту опцию и установите опцию Maximum training time in seconds. По умолчанию приложение не имеет предела по времени обучения. |
Maximum training time in seconds | Установите предельное время обучения в секундах как положительное реальное число. Значение по умолчанию 300 . Время запуска может превысить предел времени обучения, поскольку этот предел не прерывает оценку итерации. |
Number of grid divisions | Когда вы используете поиск по сетке, задайте положительное целое число как количество значений, которые приложение пробует для каждого числового гиперпараметра. Приложение игнорирует это значение для категориальных гиперпараметров. Значение по умолчанию 10 . |
После определения того, какие гиперпараметры модели оптимизировать и настройки любых дополнительных опций оптимизации (необязательно), обучите свою оптимизируемую модель. На вкладке Classification Learner, в разделе Training, нажмите Train. Приложение создает Minimum Classification Error Plot, которую оно обновляет при запуске оптимизации.
Примечание
Когда вы обучаете оптимизируемую модель, приложение отключает кнопку Use Parallel. После завершения обучения приложение снова делает кнопку доступной, когда вы выбираете неоптимизируемую модель. Кнопка отключена по умолчанию.
Минимальный график ошибки классификации отображает следующую информацию:
Estimated minimum classification error - Каждая светло-синяя точка соответствует оценке минимальной ошибки классификации, вычисленной процессом оптимизации при рассмотрении всех наборов значений гиперзначений параметров, проверенных до сих пор, включая текущую итерацию.
Оценка основана на верхнем доверительном интервале текущей целевой модели ошибки классификации, как упомянуто в Bestpoint hyperparameters описании.
Если вы используете поиск по сетке или случайный поиск для оптимизации гипероптимизации параметров управления, приложение не отображает эти светло-синие точки.
Observed minimum classification error - Каждая темно-синяя точка соответствует наблюдаемой минимальной ошибке классификации, вычисленной до сих пор процессом оптимизации. Для примера при третьей итерации темно-синяя точка соответствует минимуму ошибки классификации, наблюдаемой в первой, второй и третьей итерациях.
Bestpoint hyperparameters - красный квадрат указывает итерацию, которая соответствует оптимизированным гиперпараметрам. Вы можете найти значения оптимизированных гиперпараметров, перечисленные в правом верхнем углу графика под Optimization Results.
Оптимизированные гиперпараметры не всегда обеспечивают наблюдаемую минимальную ошибку классификации. Когда приложение выполняет настройку гиперпараметра с помощью байесовской оптимизации (см. Опции оптимизации для краткого введения), оно выбирает набор значений гиперзначений параметров, который минимизирует верхний доверительный интервал целевой модели ошибки классификации, а не набор, который минимизирует ошибку классификации. Для получения дополнительной информации смотрите 'Criterion','min-visited-upper-confidence-interval'
Аргумент пары "имя-значение" из bestPoint
.
Minimum error hyperparameters - желтая точка указывает итерацию, которая соответствует гиперпараметрам, которые дают наблюдаемую минимальную ошибку классификации.
Для получения дополнительной информации смотрите 'Criterion','min-observed'
Аргумент пары "имя-значение" из bestPoint
.
Если вы используете поиск по сетке для выполнения оптимизации гипероптимизации параметров управления, Bestpoint hyperparameters и Minimum error hyperparameters совпадают.
Отсутствующие точки на графике соответствуют NaN
минимальные значения ошибок классификации.
Когда приложение заканчивает настройку гиперпараметров модели, оно возвращает модель, обученную с оптимизированными значениями гиперзначений параметров (Bestpoint hyperparameters). Метрики модели, отображенные графики и экспортированная модель соответствуют этой обученной модели с фиксированными значениями гиперзначений параметров.
Чтобы просмотреть результаты оптимизации обученной оптимизируемой модели, выберите модель на панели Models и проверьте панель Current Model Summary.
Панель Current Model Summary включает следующие разделы:
Training Results - Показывает эффективность оптимизируемой модели
Model Type - отображает тип оптимизируемой модели и приводит все фиксированные значения гиперзначений параметров
Optimized Hyperparameters - перечисляет значения оптимизированных гиперпараметров
Hyperparameter Search Range - отображает области значений поиска для оптимизированных гиперпараметров
Optimizer Options - Показывает выбранные опции оптимизатора
Когда вы выполняете настройку гиперпараметра с помощью байесовской оптимизации и экспортируете полученную обученную оптимизируемую модель в рабочую область как структуру, структура включает в себя BayesianOptimization
объект в HyperParameterOptimizationResult
поле. Объект содержит результаты оптимизации, выполненной в приложении.
Когда вы генерируете MATLAB® код из обученной оптимизируемой модели, сгенерированный код использует фиксированные и оптимизированные значения гиперзначений параметров модели, чтобы обучаться на новых данных. Сгенерированный код не включает процесс оптимизации. Для получения информации о том, как выполнить байесовскую оптимизацию при использовании функции подгонки, смотрите Байесовскую оптимизацию с использованием функции подгонки.