Когда вы создаете высококачественную, прогнозирующую модель классификации, важно выбрать правильные функции (или предикторы) и гиперпараметры мелодии (параметры модели, которые не оцениваются).
Выбор признаков и настройка гиперпараметра могут дать к многоуровневым моделям. Можно выдержать сравнение, k - сворачивают misclassification уровни, кривые рабочей характеристики приемника (ROC) или матрицы беспорядка среди моделей. Или, проведите статистический тест, чтобы обнаружить, превосходит ли модель классификации значительно другого по характеристикам.
К новым возможностям инженера перед обучением модель классификации использовать gencfeatures
.
Чтобы создать и оценить модели классификации в интерактивном режиме, используйте приложение Classification Learner.
Чтобы автоматически выбрать модель настроенными гиперпараметрами, использовать fitcauto
. Эта функция пробует выбор типов модели классификации с различными гиперзначениями параметров и возвращает итоговую модель, которая, как ожидают, выполнит хорошо на новых данных. Использование fitcauto
когда вы не уверены, который вводит классификатор, лучше всего удовлетворяют вашим данным.
Чтобы настроить гиперпараметры определенной модели, выберите гиперзначения параметров и перекрестный подтвердите модель с помощью тех значений. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, и затем перекрестный подтвердите модель для каждой пары значений. Определенные функции классификации Statistics and Machine Learning Toolbox™ предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. bayesopt
, основная функция для реализации Байесовой оптимизации, достаточно гибко для многих других приложений также. Смотрите Байесов Рабочий процесс Оптимизации.
Чтобы интерпретировать модель классификации, можно использовать lime
, shapley
, и plotPartialDependence
.
Classification Learner | Обучите модели классифицировать данные с помощью машинного обучения с учителем |
Обучите модели классификации в приложении Classification Learner
Рабочий процесс для обучения, выдерживая сравнение и улучшая модели классификации, включая автоматизированное, ручное, и параллельное обучение.
Оцените эффективность классификатора в Classification Learner
Сравните баллы точности модели, визуализируйте результаты путем графического вывода предсказаний класса и проверяйте эффективность в классе в Матрице Беспорядка.
Выбор признаков и преобразование функции Используя приложение Classification Learner
Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Classification Learner.
Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.
Последовательный выбор признаков
Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs
функция.
Выбор признаков Анализа компонента окружения (NCA)
Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности предсказания алгоритмов регрессии и классификации.
Настройте параметр регуляризации, чтобы обнаружить функции Используя NCA для классификации
В этом примере показано, как настроить параметр регуляризации в fscnca
использование перекрестной проверки.
Упорядочите классификатор дискриминантного анализа
Сделайте более устойчивую и более простую модель путем удаления предикторов, не ставя под угрозу предсказательную силу модели.
Выберите Features for Classifying High-Dimensional Data
В этом примере показано, как выбрать функции классификации высоко-размерных данных.
Автоматизированная разработка функции для классификации
Использование gencfeatures
к новым возможностям инженера перед обучением модель классификации. Прежде, чем сделать предсказания на новых данных, примените те же преобразования функции к новому набору данных.
Автоматизированный выбор классификатора с байесовой и оптимизацией ASHA
Использование fitcauto
автоматически попробовать выбор типов модели классификации с различными гиперзначениями параметров, учитывая учебный предиктор и данные об ответе.
Байесов рабочий процесс оптимизации
Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt
непосредственно.
Переменные для байесовой оптимизации
Создайте переменные для Байесовой оптимизации.
Байесовы целевые функции оптимизации
Создайте целевую функцию для Байесовой оптимизации.
Ограничения в байесовой оптимизации
Установите различные типы ограничений для Байесовой оптимизации.
Оптимизируйте перекрестный Подтвержденный Классификатор Используя bayesopt
Минимизируйте потерю перекрестной проверки с помощью Байесовой Оптимизации.
Оптимизируйте подгонку классификатора Используя байесовую оптимизацию
Минимизируйте потерю перекрестной проверки с помощью OptimizeParameters
аргумент значения имени в подходящей функции.
Байесовы функции построения графика оптимизации
Визуально контролируйте Байесовую оптимизацию.
Байесовы выходные функции оптимизации
Контролируйте Байесовую оптимизацию.
Изучите базовые алгоритмы для Байесовой оптимизации.
Найдите что-либо подобное байесовой оптимизации
Как Байесова оптимизация работает параллельно.
Интерпретируйте модели машинного обучения
Объясните предсказания модели с помощью lime
, shapley
, и plotPartialDependence
.
Шепли оценивает за модель машинного обучения
Вычислите значения Шепли для машинного обучения, моделируют использование двух алгоритмов: kernelSHAP и расширение kernelSHAP.
Реализуйте перекрестную проверку Используя параллельные вычисления
Ускорьте перекрестную проверку с помощью параллельных вычислений.
Исследуйте эффективность алгоритма классификации на определенном наборе тестовых данных с помощью кривой рабочей характеристики приемника.