Построение моделей и оценка

Выбор признаков, гипероптимизация параметров управления, перекрестная проверка, прогнозирующая оценка результатов деятельности, тесты сравнения точности классификации

При создавании высококачественной, прогнозирующей модели классификации важно выбрать правильные функции (или предикторы) и гиперпараметры мелодии (параметры модели, которые не оцениваются).

Чтобы настроить гиперпараметры, выберите гиперзначения параметров и перекрестный подтвердите модель с помощью тех значений. Например, чтобы настроить модель SVM, выберите набор ограничений поля и шкал ядра, и затем перекрестный подтвердите модель для каждой пары значений. Определенные функции классификации Statistics and Machine Learning Toolbox™ предлагают автоматический гиперпараметр, настраивающийся посредством Байесовой оптимизации, поиска сетки или случайного поиска. Однако основная функция раньше реализовывала Байесовую оптимизацию, bayesopt, достаточно гибко для использования в других приложениях. Смотрите Байесов Рабочий процесс Оптимизации.

Выбор признаков и настройка гиперпараметра могут дать к многоуровневым моделям. Можно выдержать сравнение, k - сворачивают misclassification уровни, кривые рабочей характеристики получателя (ROC) или матрицы беспорядка среди моделей. Или, проведите статистический тест, чтобы обнаружить, превосходит ли модель классификации значительно другого по характеристикам.

Чтобы создать и оценить модели классификации в интерактивном режиме, используйте  приложение Classification Learner.

Приложения

Classification LearnerОбучите модели классифицировать данные с помощью машинного обучения с учителем

Функции

развернуть все

fscmrmrОцените функции классификации с помощью алгоритма минимальной уместности максимума сокращения (MRMR)
fscncaВыбор признаков с помощью анализа компонента окружения в классификации
oobPermutedPredictorImportanceВажность предиктора оценивает сочетанием наблюдений предиктора из сумки для случайного леса деревьев классификации
predictorImportanceОценки важности предиктора для дерева классификации
predictorImportanceОценки важности предиктора для ансамбля классификации деревьев решений
sequentialfsПоследовательный выбор признаков с помощью пользовательского критерия
relieffОцените важность использования предикторов алгоритм RReliefF или ReliefF
bayesoptВыберите оптимальные гиперпараметры машинного обучения с помощью Байесовой оптимизации
hyperparametersОписания переменной для оптимизации подходящей функции
optimizableVariableОписание переменной для bayesopt или других оптимизаторов
crossvalОценка потерь с помощью перекрестной проверки
cvpartitionСоздайте раздел перекрестной проверки для данных
repartitionДанные о повторном разделении для перекрестной проверки
testПротестируйте индексы на перекрестную проверку
trainingУчебные индексы для перекрестной проверки
confusionchartСоздайте матричный график беспорядка для проблемы классификации
confusionmatВычислите матрицу беспорядка для проблемы классификации
perfcurveКривая рабочей характеристики получателя (ROC) или другая кривая производительности для классификатора выводятся
testcholdoutСравните прогнозирующую точность двух моделей классификации
testckfoldСравните точность двух моделей классификации повторной перекрестной проверкой

Объекты

развернуть все

FeatureSelectionNCAClassificationВыбор признаков для классификации с помощью анализа компонента окружения (NCA)
BayesianOptimizationБайесовы результаты оптимизации
cvpartitionРазделы данных для перекрестной проверки

Темы

Приложение Classification Learner

Обучите модели классификации в приложении Classification Learner

Рабочий процесс для обучения, выдерживая сравнение и улучшая модели классификации, включая автоматизированное, ручное, и параллельное обучение.

Оцените производительность классификатора в Classification Learner

Сравните баллы точности модели, визуализируйте результаты путем графического вывода прогнозов класса и проверяйте производительность в классе в Матрице Беспорядка.

Выбор признаков и преобразование функции Используя приложение Classification Learner

Идентифицируйте полезные предикторы с помощью графиков, вручную избранные функции, чтобы включать, и преобразовать функции с помощью PCA в Classification Learner.

Выбор признаков

Введение в выбор признаков

Узнайте об алгоритмах выбора признаков и исследуйте функции, доступные для выбора признаков.

Последовательный выбор признаков

Эта тема вводит последовательному выбору признаков и обеспечивает пример, который выбирает функции последовательно с помощью пользовательского критерия и sequentialfs функция.

Выбор признаков Анализа компонента окружения (NCA)

Анализ компонента окружения (NCA) является непараметрическим методом для выбора функций с целью максимизации точности прогноза алгоритмов регрессии и классификации.

Настройте параметр регуляризации, чтобы обнаружить функции Используя NCA для классификации

В этом примере показано, как настроить параметр регуляризации в fscnca использование перекрестной проверки.

Упорядочите классификатор дискриминантного анализа

Сделайте более устойчивую и более простую модель путем удаления предикторов, не ставя под угрозу предсказательную силу модели.

Выбор функций классификации высоко-размерных данных

В этом примере показано, как выбрать функции классификации высоко-размерных данных.

Гипероптимизация параметров управления

Байесов рабочий процесс оптимизации

Выполните Байесовую оптимизацию с помощью подходящей функции или путем вызова bayesopt непосредственно.

Переменные для байесовой оптимизации

Создайте переменные для Байесовой оптимизации.

Байесовы целевые функции оптимизации

Создайте целевую функцию для Байесовой оптимизации.

Ограничения в байесовой оптимизации

Установите различные типы ограничений для Байесовой оптимизации.

Оптимизируйте перекрестный Подтвержденный Классификатор SVM Используя bayesopt

Минимизируйте потерю перекрестной проверки с помощью Байесовой Оптимизации.

Оптимизируйте подгонку классификатора SVM Используя байесовую оптимизацию

Минимизируйте потерю перекрестной проверки с помощью OptimizeParameters пара "имя-значение" в подходящей функции.

Байесовы функции построения графика оптимизации

Визуально контролируйте Байесовую оптимизацию.

Байесовы выходные функции оптимизации

Контролируйте Байесовую оптимизацию.

Байесов алгоритм оптимизации

Изучите базовые алгоритмы для Байесовой оптимизации.

Найдите что-либо подобное байесовой оптимизации

Как Байесова оптимизация работает параллельно.

Перекрестная проверка

Реализуйте перекрестную проверку Используя параллельные вычисления

Ускорьте перекрестную проверку с помощью параллельных вычислений.

Оценка результатов деятельности классификации

Кривые производительности

Исследуйте производительность алгоритма классификации на определенном наборе тестовых данных с помощью кривой рабочей характеристики получателя.

Для просмотра документации необходимо авторизоваться на сайте