При создавании высококачественной, прогнозирующей модели классификации важно выбрать правильные функции (или предикторы) и гиперпараметры мелодии (параметры модели, которые не оцениваются).
Чтобы настроить гиперпараметры, выберите гиперзначения параметров и перекрестный подтвердите модель с помощью тех значений. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, и затем перекрестный подтвердите модель для каждой пары значений. Определенные функции классификации Statistics and Machine Learning Toolbox™ предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако основная функция, используемая, чтобы реализовать Байесовую оптимизацию, bayesopt
, достаточно гибка для использования в других приложениях. Смотрите Байесов Рабочий процесс Оптимизации.
Покажите выбор, и настройка гиперпараметра может привести к многоуровневым моделям. Можно выдержать сравнение, k - сворачивают misclassification уровни, кривые рабочей характеристики получателя (ROC) или матрицы беспорядка среди моделей. Или, проведите статистический тест, чтобы обнаружить, превосходит ли модель классификации значительно другого по характеристикам.
Чтобы создать и оценить модели классификации в интерактивном режиме, используйте приложение Classification Learner.
Classification Learner | Обучите модели классифицировать данные с помощью машинного обучения с учителем |
Обучите модели классификации в приложении Classification Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели классификации, включая автоматизированное, ручное, и параллельное обучение.
Оцените производительность классификатора в Classification Learner
Сравните образцовые очки точности, визуализируйте результаты путем графического вывода прогнозов класса и проверяйте производительность в классе в Матрице Беспорядка.
Покажите выбор и покажите преобразование Используя приложение Classification Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Classification Learner.
Узнайте об алгоритмах выбора функции, таких как последовательный выбор функции.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте перекрестный Подтвержденный Классификатор SVM Используя bayesopt
Минимизируйте потерю перекрестной проверки с помощью Байесовой Оптимизации.
Оптимизируйте подгонку классификатора SVM Используя байесовую оптимизацию
Минимизируйте потерю перекрестной проверки с помощью пары "имя-значение" OptimizeParameters
в подходящей функции.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Поймите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Исследуйте производительность алгоритма классификации на определенном наборе тестовых данных с помощью кривой рабочей характеристики получателя.