При создавании высококачественной, прогнозирующей модели классификации важно выбрать правильные функции (или предикторы) и гиперпараметры мелодии (параметры модели, которые не оцениваются).
Чтобы настроить гиперпараметры, выберите гиперзначения параметров и перекрестный подтвердите модель с помощью тех значений. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, и затем перекрестный подтвердите модель для каждой пары значений. Определенные функции классификации Statistics and Machine Learning Toolbox™ предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако основная функция раньше реализовывала Байесовую оптимизацию, bayesopt
, достаточно гибко для использования в других приложениях. Смотрите Байесов Рабочий процесс Оптимизации.
Выбор признаков и настройка гиперпараметра могут дать к многоуровневым моделям. Можно выдержать сравнение, k - сворачивают misclassification уровни, кривые рабочей характеристики получателя (ROC) или матрицы беспорядка среди моделей. Или, проведите статистический тест, чтобы обнаружить, превосходит ли модель классификации значительно другого по характеристикам.
Чтобы создать и оценить модели классификации в интерактивном режиме, используйте приложение Classification Learner.
Classification Learner | Обучите модели классифицировать данные с помощью машинного обучения с учителем |
Обучите модели классификации в приложении Classification Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели классификации, включая автоматизированное, ручное, и параллельное обучение.
Оцените производительность классификатора в Classification Learner
Сравните баллы точности модели, визуализируйте результаты путем графического вывода прогнозов класса и проверяйте производительность в классе в Матрице Беспорядка.
Выбор признаков и преобразование функции Используя приложение Classification Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Classification Learner.
Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.
Последовательный выбор признаков
Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs
функция.
Выбор признаков Анализа компонента окружения (NCA)
Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности прогноза алгоритмов регрессии и классификации.
Настройте параметр регуляризации, чтобы обнаружить функции Используя NCA для классификации
В этом примере показано, как настроить параметр регуляризации в fscnca
использование перекрестной проверки.
Упорядочите классификатор дискриминантного анализа
Сделайте более устойчивую и более простую модель путем удаления предикторов, не ставя под угрозу предсказательную силу модели.
Выбор функций классификации высоко-размерных данных
В этом примере показано, как выбрать функции классификации высоко-размерных данных.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте перекрестный Подтвержденный Классификатор SVM Используя bayesopt
Минимизируйте потерю перекрестной проверки с помощью Байесовой Оптимизации.
Оптимизируйте подгонку классификатора SVM Используя байесовую оптимизацию
Минимизируйте потерю перекрестной проверки с помощью OptimizeParameters
пара "имя-значение" в подходящей функции.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Изучите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Исследуйте производительность алгоритма классификации на определенном наборе тестовых данных с помощью кривой рабочей характеристики получателя.