При создавании высококачественной, прогнозирующей модели классификации важно выбрать правильные функции (или предикторы) и гиперпараметры мелодии (параметры модели, которые не оцениваются).
Чтобы настроить гиперпараметры определенной модели, выберите гиперзначения параметров и перекрестный подтвердите модель с помощью тех значений. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, и затем перекрестный подтвердите модель для каждой пары значений. Определенные функции классификации Statistics and Machine Learning Toolbox™ предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако основная функция раньше реализовывала Байесовую оптимизацию, bayesopt
, достаточно гибко для использования в других приложениях. Смотрите Байесов Рабочий процесс Оптимизации.
Выбор признаков и настройка гиперпараметра могут дать к многоуровневым моделям. Можно выдержать сравнение, k - сворачивают misclassification уровни, кривые рабочей характеристики приемника (ROC) или матрицы беспорядка среди моделей. Или, проведите статистический тест, чтобы обнаружить, превосходит ли модель классификации значительно другого по характеристикам.
Чтобы автоматически выбрать модель настроенными гиперпараметрами, использовать fitcauto
. Эта функция пробует выбор типов модели классификации с различными гиперзначениями параметров и возвращает итоговую модель, которая, как ожидают, выполнит хорошо на новых данных. Использование fitcauto
когда вы не уверены, который вводит классификатор, лучше всего удовлетворяют вашим данным.
Чтобы создать и оценить модели классификации в интерактивном режиме, используйте приложение Classification Learner.
Чтобы интерпретировать модель классификации, можно использовать lime
или plotPartialDependence
.
Classification Learner | Обучите модели классифицировать данные с помощью машинного обучения с учителем |
Обучите модели классификации в приложении Classification Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели классификации, включая автоматизированное, ручное, и параллельное обучение.
Оцените эффективность классификатора в Classification Learner
Сравните баллы точности модели, визуализируйте результаты путем графического вывода предсказаний класса и проверяйте эффективность в классе в Матрице Беспорядка.
Выбор признаков и преобразование функции Используя приложение Classification Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Classification Learner.
Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.
Последовательный выбор признаков
Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs
функция.
Выбор признаков Анализа компонента окружения (NCA)
Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности предсказания алгоритмов регрессии и классификации.
Настройте параметр регуляризации, чтобы обнаружить функции Используя NCA для классификации
В этом примере показано, как настроить параметр регуляризации в fscnca
использование перекрестной проверки.
Упорядочите классификатор дискриминантного анализа
Сделайте более устойчивую и более простую модель путем удаления предикторов, не ставя под угрозу предсказательную силу модели.
Выбор функций классификации высоко-размерных данных
В этом примере показано, как выбрать функции классификации высоко-размерных данных.
Автоматизированный выбор классификатора с байесовой оптимизацией
Использование fitcauto
автоматически попробовать выбор типов модели классификации с различными гиперзначениями параметров, учитывая учебный предиктор и данные об ответе.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте перекрестный Подтвержденный Классификатор SVM Используя bayesopt
Минимизируйте потерю перекрестной проверки с помощью Байесовой Оптимизации.
Оптимизируйте подгонку классификатора SVM Используя байесовую оптимизацию
Минимизируйте потерю перекрестной проверки с помощью OptimizeParameters
пара "имя-значение" в подходящей функции.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Изучите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Исследуйте эффективность алгоритма классификации на определенном наборе тестовых данных с помощью кривой рабочей характеристики приемника.