Выберите Classifier Options

Выберите тип классификатора

Можно использовать Classification Learner, чтобы автоматически обучить выбор различных моделей классификации на данных. Используйте автоматизированное обучение быстро попробовать выбор типов модели, затем исследуйте многообещающие модели в интерактивном режиме. Чтобы начать, попробуйте эти опции сначала:

Кнопки классификатора ЗапускаОписание
All Quick-To-TrainПопробуйте это сначала. Приложение обучит все типы модели, доступные для вашего набора данных, которые обычно быстры, чтобы соответствовать.
All LinearПопробуйте это, если вы ожидаете линейные контуры между классами в ваших данных. Эта опция соответствует только Линейному SVM и Линейному Дискриминанту.
AllИспользуйте это, чтобы обучить все доступные типы модели. Обучает каждый тип независимо от любых предшествующих обученных моделей. Может быть длительным.

Смотрите автоматизированное обучение классификатора.

Если вы хотите исследовать классификаторы по одному, или вы уже знаете, какой тип классификатора вы хотите, можно выбрать отдельные модели или обучить группу того же типа. Чтобы видеть все доступные опции классификатора, на вкладке Classification Learner, кликают по стрелке на ультраправом из раздела Model Type, чтобы расширить список классификаторов. Опции в галерее Model Type являются предварительно установленными отправными точками с различными настройками, подходящими для области значений различных проблем классификации.

Для справки, выбирая лучший тип классификатора для вашей проблемы, см., что таблица показывает типичные характеристики различных контролируемых алгоритмов изучения. Используйте таблицу в качестве руководства для вашего итогового выбора алгоритмов. Выберите компромисс, который вы хотите в скорости, использовании памяти, гибкости и interpretability. Лучший тип классификатора зависит от ваших данных.

Совет

Чтобы постараться не сверхсоответствовать, ищите модель более низкой гибкости, которая обеспечивает достаточную точность. Например, ищите простые модели, такие как деревья решений и дискриминанты, которые быстры и легки интерпретировать. Если модели не являются достаточно точным предсказанием ответа, выбирают другие классификаторы с более высокой гибкостью, такие как ансамбли. Чтобы управлять гибкостью, смотрите детали для каждого типа классификатора.

Характеристики типов классификатора

КлассификаторСкорость прогнозаИспользование памятиInterpretability
Деревья решений
БыстроМаленькийЛегкий
Дискриминантный анализ
БыстроМаленький для линейного, большого для квадратичногоЛегкий
Логистическая регрессия
БыстроНосительЛегкий

Поддержите векторные машины

Примечание

Генерация кода C поддержек для прогноза.

Носитель для линейного
Медленный для других
Носитель для линейного.
Все другие: носитель для мультикласса, большого для двоичного файла.
Легкий для линейного SVM.
Трудный для всех других типов ядра.
Самые близкие соседние классификаторы
Медленный для кубического
Носитель для других
НосительТрудно
Классификаторы ансамбля
Быстро к носителю в зависимости от выбора алгоритмаНизко к высоко в зависимости от выбора алгоритмаТрудно
Наивные классификаторы Байеса
Носитель для простых дистрибутивов
Медленный для дистрибутивов ядра или высоко-размерных данных
Маленький для простых дистрибутивов
Носитель для дистрибутивов ядра или высоко-размерных данных
Легкий

Таблицы на этой странице описывают общие характеристики скорости и использования памяти для всех предварительно установленных классификаторов. Классификаторы были протестированы с различными наборами данных (до 7 000 наблюдений, 80 предикторов и 50 классов), и результаты задают следующие группы:

Скорость

  • Быстро 0,01 секунды

  • Средняя 1 секунда

  • Замедлите 100 секунд

Memory

  • Маленький 1 МБ

  • Средние 4 МБ

  • Большие 100 МБ

Эти таблицы предоставляют общее руководство. Ваши результаты зависят от ваших данных и скорости вашей машины.

Чтобы считать описание каждого классификатора в Classification Learner, переключитесь на представление деталей.

Совет

После того, как вы выберете тип классификатора (например, деревья решений), попробуйте обучение с помощью каждого из классификаторов. Опции в галерее Model Type являются отправными точками с различными настройками. Судите их всех, чтобы видеть, какая опция производит лучшую модель с вашими данными.

Для инструкций по рабочему процессу см. Модели Классификации Train в Приложении Classification Learner.

Категориальная поддержка предиктора

В Classification Learner галерея Model Type только показывает типы классификатора, которые поддерживают ваши выбранные данные.

КлассификаторВсе числовые предикторыВсе категориальные предикторыНекоторые категориальные, некоторые числовые
Деревья решенийДаДаДа
Дискриминантный анализДаНетНет
Логистическая регрессияДаДаДа
SVMДаДаДа
NearestNeighborЕвклидово расстояние толькоРасстояние Хемминга толькоНет
АнсамблиДаДа, кроме дискриминанта подпространстваДа, кроме любого Подпространства
Наивный байесовДаДаДа

Деревья решений

Деревья решений легко интерпретировать, быстро для подбора кривой и прогноза, и низко на использовании памяти, но у них может быть низкая прогнозирующая точность. Попытайтесь вырастить более простые деревья, чтобы предотвратить сверхподбор кривой. Управляйте глубиной с установкой Maximum number of splits.

Совет

Образцовая гибкость увеличивается с установкой Maximum number of splits.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityОбразцовая гибкость
Крупное дерево
БыстроМаленькийЛегкийНизко
Немного листов, чтобы сделать крупные различия между классами (максимальное количество разделений равняется 4).
Среднее дерево
БыстроМаленькийЛегкийНоситель
Среднее количество уезжает в более прекрасные различия между классами (максимальное количество разделений равняется 20).
Прекрасное дерево
БыстроМаленькийЛегкийВысоко
Много листов, чтобы сделать много тонких различий между классами (максимальное количество разделений равняется 100).

Совет

В Model Type галерея нажимают All Trees, чтобы попробовать каждую из опций дерева решений. Обучите их всех видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории. Чтобы попытаться улучшить вашу модель, попробуйте выбор функции, и затем попытайтесь изменить некоторые расширенные настройки.

Вы обучаете деревья классификации предсказывать ответы на данные. Чтобы предсказать ответ, следуйте за решениями в дереве от корня (начало) узел вниз к вершине. Вершина содержит ответ. Деревья Statistics and Machine Learning Toolbox™ являются двоичным файлом. Каждый шаг в прогнозе включает проверку значения одного предиктора (переменная). Например, вот простое дерево классификации:

Это дерево предсказывает классификации на основе двух предикторов, x1 и x2. Чтобы предсказать, запустите в главном узле. При каждом решении проверяйте значения предикторов, чтобы решить который ответвление следовать. Когда ответвления достигают вершины, данные классифицируются или как тип 0 или как 1.

Можно визуализировать модель дерева принятия решения путем экспорта модели из приложения и затем ввода:

view(trainedModel.ClassificationTree,'Mode','graph') 
Данные показывают пример прекрасное дерево, обученное с данными fisheriris.

Усовершенствованные древовидные опции

Деревья классификации в Classification Learner используют функцию fitctree. Можно установить эти опции:

  • Maximum number of splits

    Задайте максимальное количество разделений или точек разветвления, чтобы управлять глубиной вашего дерева. Когда вы выращиваете дерево решений, рассматриваете его простоту и предсказательную силу. Чтобы изменить количество разделений, нажмите кнопки или введите положительное целочисленное значение в поле Maximum number of splits .

    • Прекрасное дерево со многими листами обычно очень точно на данных тренировки. Однако древовидная сила не показывает сопоставимую точность на независимом наборе тестов. Покрытое листвой дерево имеет тенденцию перетренироваться, и его точность валидации часто намного ниже, чем его обучение (или перезамена) точность.

    • Напротив, крупное дерево не достигает высокой учебной точности. Но крупное дерево может быть более устойчивым в той своей учебной точности, может приблизиться к тому из представительного набора тестов. Кроме того, крупное дерево легко интерпретировать.

  • Split criterion

    Задайте меру по критерию разделения для решения, когда разделить узлы. Попробуйте каждую из этих трех настроек, чтобы видеть, улучшают ли они модель с вашими данными.

    Разделите опциями критерия является Gini's diversity index, Twoing rule или Maximum deviance reduction (также известный как перекрестную энтропию).

    Дерево классификации пытается оптимизировать к чистым узлам, содержащим только один класс. Индекс разнообразия Джини (значение по умолчанию) и критерий отклонения измеряет примесь узла. Правило twoing является различной мерой для решения, как разделить узел, где, максимизировав чистоту узла увеличений выражения правила twoing.

    Для получения дополнительной информации этих критериев разделения, см. Определения ClassificationTree.

  • Surrogate decision splits — Только для недостающих данных.

    Задайте суррогатное использование для разделений решения. Если у вас есть данные с отсутствующими значениями, используйте суррогатные разделения, чтобы улучшить точность прогнозов.

    Когда вы устанавливаете Surrogate decision splits на On, дерево классификации находит самое большее 10 суррогатных разделений в каждом узле ответвления. Чтобы изменить номер, нажмите кнопки или введите положительное целочисленное значение в поле Maximum surrogates per node.

    Когда вы устанавливаете Surrogate decision splits на Find All, дерево классификации находит все суррогатные разделения в каждом узле ответвления. Установка Find All может использовать продолжительное время и память.

Дискриминантный анализ

Дискриминантный анализ является популярным первым алгоритмом классификации, который попробует, потому что это быстро, точно и легко интерпретировать. Дискриминантный анализ хорош для широких наборов данных.

Дискриминантный анализ принимает, что различные классы генерируют данные на основе различных Распределений Гаусса. Чтобы обучить классификатор, подходящая функция оценивает параметры Распределения Гаусса для каждого класса.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityОбразцовая гибкость
Линейный дискриминант
БыстроМаленькийЛегкийНизко
Создает линейные контуры между классами.
Квадратичный дискриминант
БыстроБольшойЛегкийНизко
Создает нелинейные контуры между классами (эллипс, парабола или гипербола).

Усовершенствованные дискриминантные опции

Дискриминантный анализ в Classification Learner использует функцию fitcdiscr. И для линейных и для квадратичных дискриминантов, можно изменить опцию Covariance structure. Если у вас есть предикторы с нулевым отклонением или если какая-либо из ковариационных матриц ваших предикторов сингулярна, учебный может привести использование к сбою значения по умолчанию, структуры ковариации Full. Если обучение перестало работать, выберите структуру ковариации Diagonal вместо этого.

Логистическая регрессия

Если у вас есть 2 класса, логистическая регрессия является популярным простым алгоритмом классификации, чтобы попробовать, потому что легко интерпретировать. Классификатор моделирует вероятности класса как функцию линейной комбинации предикторов.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityОбразцовая гибкость
Логистическая регрессия
БыстроНосительЛегкийНизко
Вы не можете изменить параметры на гибкость модели управления.

Логистическая регрессия в Classification Learner использует функцию fitglm. Вы не можете установить опции для этого классификатора в приложении.

Поддержите векторные машины

В Classification Learner можно обучить SVMs, когда данные имеют два или больше класса.

Примечание

После того, как вы обучите модель SVM, можно сгенерировать код С для прогноза. Требует MATLAB® Coder™. Смотрите Генерируют код С для Прогноза.

Тип классификатораСкорость прогнозаИспользование памяти InterpretabilityОбразцовая гибкость
Линейный SVM

Двоичный файл: быстро

Мультикласс: носитель

НосительЛегкийНизко
Делает простое линейное разделение между классами.
Квадратичный SVM

Двоичный файл: быстро

Мультикласс: медленный

Двоичный файл: носитель

Мультикласс: большой

ТрудноНоситель
Кубический SVM

Двоичный файл: быстро

Мультикласс: медленный

Двоичный файл: носитель

Мультикласс: большой

ТрудноНоситель
Прекрасный гауссов SVM

Двоичный файл: быстро

Мультикласс: медленный

Двоичный файл: носитель

Мультикласс: большой

ТрудноВысоко — уменьшается с установкой шкалы ядра.
Делает точно подробные различия между классами, с набором шкалы ядра к sqrt(P)/4.
Средний гауссов SVM

Двоичный файл: быстро

Мультикласс: медленный

Двоичный файл: носитель

Мультикласс: большой

ТрудноНоситель
Средние различия, с ядром масштабируют набор к sqrt(P).
Крупный гауссов SVM

Двоичный файл: быстро

Мультикласс: медленный

Двоичный файл: носитель

Мультикласс: большой

ТрудноНизко
Делает крупные различия между классами, с набором шкалы ядра к sqrt(P)*4, где P является количеством предикторов.

Совет

Попробуйте обучение каждая из опций машины вектора поддержки в галерее Model Type. Обучите их всех видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории. Чтобы попытаться улучшить вашу модель, попробуйте выбор функции, и затем попытайтесь изменить некоторые расширенные настройки.

SVM классифицирует данные путем нахождения лучшей гиперплоскости, которая разделяет точки данных одного класса от тех из другого класса. Лучшая гиперплоскость для SVM означает тот с самым большим полем между этими двумя классами. Поле означает максимальную ширину плиты, параллельной гиперплоскости, которая не имеет никаких внутренних точек данных.

support vectors является точками данных, которые являются самыми близкими к отделяющейся гиперплоскости; эти точки находятся на контуре плиты. Следующая фигура иллюстрирует эти определения, с + указание на точки данных типа 1, и – указание на точки данных типа-1.

SVMs может также использовать мягкое поле, означая гиперплоскость, которая разделяет многих, но не все точки данных.

Для примера смотрите, что Машины Вектора Поддержки Train Используют Приложение Classification Learner.

Усовершенствованные опции SVM

Если у вас есть точно два класса, Classification Learner использует функцию fitcsvm, чтобы обучить классификатор. Если у вас есть больше чем два класса, приложение использует функцию fitcecoc, чтобы уменьшать проблему классификации мультиклассов до набора бинарных подпроблем классификации с одним учеником SVM для каждой подпроблемы. Чтобы исследовать код на двоичный файл и типы классификатора мультикласса, можно сгенерировать код от обученных классификаторов в приложении.

Можно установить эти опции в приложении:

  • Kernel function

    Задайте функцию Ядра, чтобы вычислить классификатор.

    • Линейное ядро, самое легкое интерпретировать

    • Ядро гауссовой или Радиальной основной функции (RBF)

    • Квадратичный

    • Кубический

  • Box constraint level

    Задайте ограничение поля, чтобы сохранить допустимые значения множителей Лагранжа в поле, ограниченной области.

    Чтобы настроить ваш классификатор SVM, попытайтесь увеличить ограничительный уровень поля. Нажмите кнопки или введите значение положительной скалярной величины в поле Box constraint level. Увеличение ограничительного уровня поля может сократить число векторов поддержки, но также и может увеличить учебное время.

    Параметр ограничения Поля является мягко-граничным штрафом, известным C в основных уравнениях, и является трудным ограничением “поля” в двойных уравнениях.

  • Kernel scale mode

    Задайте ручное ядро, масштабирующееся при желании.

    Когда вы устанавливаете Kernel scale mode на Auto, затем программное обеспечение использует эвристическую процедуру, чтобы выбрать значение шкалы. Эвристическая процедура использует подвыборку. Поэтому, чтобы воспроизвести результаты, установите seed случайных чисел с помощью rng перед обучением классификатор.

    Когда вы устанавливаете Kernel scale mode на Manual, можно задать значение. Нажмите кнопки или введите значение положительной скалярной величины в поле Manual kernel scale. Программное обеспечение делит все элементы матрицы предиктора значением шкалы ядра. Затем программное обеспечение применяет соответствующую норму ядра, чтобы вычислить матрицу Грамма.

    Совет

    Образцовая гибкость уменьшается с установкой шкалы ядра.

  • Multiclass method

    Только для данных с 3 или больше классами. Этот метод уменьшает проблему классификации мультиклассов до набора бинарных подпроблем классификации с одним учеником SVM для каждой подпроблемы. One-vs-One обучает одного ученика каждой паре классов. Это учится отличать один класс от другого. One-vs-All обучает одного ученика каждому классу. Это учится отличать один класс от всех других.

  • Standardize data

    Задайте, масштабировать ли каждое координатное расстояние. Если предикторы имеют широко различные шкалы, стандартизация может улучшить подгонку.

Самые близкие соседние классификаторы

Самые близкие соседние классификаторы обычно имеют хорошую прогнозирующую точность в низких размерностях, но не может в высоких размерностях. Они имеют использование верхней памяти и не легки интерпретировать.

Совет

Образцовая гибкость уменьшается с установкой Number of neighbors.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityОбразцовая гибкость
Прекрасный KNN
НосительНосительТрудно

Точно подробные различия между классами. Номер соседей определяется к 1.

Средний KNN
НосительНосительТрудно

Средние различия между классами. Номер соседей определяется к 10.

Крупный KNN
НосительНосительТрудно

Крупные различия между классами. Номер соседей определяется к 100.

Косинус KNN
НосительНосительТрудноСредние различия между классами, с помощью метрики расстояния Косинуса. Номер соседей определяется к 10.
Кубический KNN
МедленныйНосительТрудноСредние различия между классами, с помощью кубической метрики расстояния. Номер соседей определяется к 10.
Взвешенный KNN
НосительНосительТрудноСредние различия между классами, с помощью веса расстояния. Номер соседей определяется к 10.

Совет

Попробуйте обучение каждая из самых близких соседних опций в галерее Model Type. Обучите их всех видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории. Чтобы попытаться улучшить вашу модель, попробуйте выбор функции, и затем (опционально) попытайтесь изменить некоторые расширенные настройки.

Что такое k - Самая близкая Соседняя классификация? Категоризация точек запроса на основе их расстояния до точек (или соседи) в обучающем наборе данных может быть простым все же эффективным способом классифицировать новые точки. Можно использовать различные метрики, чтобы определить расстояние. Учитывая набор X точек n и функции расстояния, k - самый близкий сосед (k NN) поиск позволяет вам найти k самыми близкими точками в X к точке запроса или набору точек. k основанные на NN алгоритмы широко используется в качестве правил машинного обучения сравнительного теста.

Для примера смотрите Train Самые близкие Соседние Классификаторы Используя Приложение Classification Learner.

Усовершенствованные опции KNN

Самые близкие Соседние классификаторы в Classification Learner используют функцию fitcknn. Можно установить эти опции:

  • Number of neighbors

    Задайте количество самых близких соседей, чтобы найти для классификации каждой точки при предсказании. Задайте штраф (небольшое число) или крупный классификатор (высокий номер) путем изменения количества соседей. Например, прекрасный KNN использует одного соседа, и крупный KNN использует 100. Многие соседи могут быть трудоемкими, чтобы соответствовать.

  • Distance metric

    Можно использовать различные метрики, чтобы определить расстояние до точек. Для определений смотрите класс ClassificationKNN.

  • Distance weight

    Задайте функцию взвешивания расстояния. Можно выбрать Equal (никакие веса), Inverse (вес 1/дистанцировать), или Squared Inverse (вес является 1/distance2).

  • Standardize data

    Задайте, масштабировать ли каждое координатное расстояние. Если предикторы имеют широко различные шкалы, стандартизация может улучшить подгонку.

Классификаторы ансамбля

Комбинация классификаторов ансамбля следует из многих слабых учеников в одну высококачественную модель ансамбля. Качества зависят от выбора алгоритма.

Совет

Образцовая гибкость увеличивается с установкой Number of learners.

Все классификаторы ансамбля имеют тенденцию не спешить соответствовать, потому что им часто нужны многие ученики.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityМетод ансамбляОбразцовая гибкость
Повышенные деревья
БыстроНизкоТрудноAdaBoost, с учениками Decision Tree

Носитель к высокому — увеличивается с установкой Number of learners или Maximum number of splits.

Совет

Повышенные деревья могут обычно добиваться большего успеха, чем сложенный в мешок, но могут потребовать настройки параметра и большего количества учеников

Сложенные в мешок деревья
НосительВысокоТрудноСлучайный лес
Bag, с учениками Decision Tree

Высоко — увеличивается с установкой Number of learners.

Совет

Попробуйте этот классификатор сначала.

Дискриминант подпространства
НосительНизкоТрудноSubspace, с учениками Discriminant

Носитель — увеличивается с установкой Number of learners.

Хороший для многих предикторов

Подпространство KNN
НосительНосительТрудноSubspace, с учениками Nearest Neighbor

Носитель — увеличивается с установкой Number of learners.

Хороший для многих предикторов

Деревья RUSBoost
БыстроНизкоТрудноRUSBoost, с учениками Decision Tree

Носитель — увеличивается с установкой Number of learners или Maximum number of splits.

Хороший для скошенных данных (со значительно большим количеством наблюдений за 1 классом)

GentleBoost или LogitBoost — не доступный в галерее Model Type.
Если у вас есть 2 данных о классе, выберите вручную.
БыстроНизкоТрудноGentleBoost или LogitBoost, с учениками Decision Tree
Выберите Boosted Trees и изменение в методе GentleBoost.

Носитель — увеличивается с установкой Number of learners или Maximum number of splits.

Для бинарной классификации только

Сложенные в мешок деревья используют алгоритм 'random forest' Бреимена. Для ссылки смотрите Бреимена, L. Случайные Леса. Машинное обучение 45, стр 5–32, 2001.

Советы

  • Попробуйте сложенные в мешок деревья сначала. Повышенные деревья могут обычно добиваться большего успеха, но могут потребовать поиска многих значений параметров, который длителен.

  • Попробуйте обучение каждая из опций классификатора ансамбля в галерее Model Type. Обучите их всех видеть, какие настройки производят лучшую модель с вашими данными. Выберите лучшую модель в Списке предыстории. Чтобы попытаться улучшить вашу модель, попробуйте выбор функции, PCA, и затем (опционально) попытайтесь изменить некоторые расширенные настройки.

  • Для повышения методов ансамбля можно получить мелкие детали или с более глубокими деревьями или с большим числом мелких деревьев. Как с одним древовидными классификаторами, глубокие деревья могут вызвать сверхподбор кривой. Необходимо экспериментировать, чтобы выбрать лучшую древовидную глубину для деревьев в ансамбле, по порядку к совпадению данных компромисса с древовидной сложностью. Используйте настройки Number of learners и Maximum number of splits.

Для примера смотрите, что Классификаторы Ансамбля Train Используют Приложение Classification Learner.

Усовершенствованные опции ансамбля

Классификаторы ансамбля в Classification Learner используют функцию fitcensemble. Можно установить эти опции:

  • Для Ensemble method выбора справки и Learner type, см. таблицу Ensemble. Попробуйте предварительные установки сначала.

  • Maximum number of splits

    Для повышения методов ансамбля задайте максимальное количество разделений или точек разветвления, чтобы управлять глубиной ваших древовидных учеников. Много ответвлений имеют тенденцию сверхсоответствовать, и более простые деревья могут быть более устойчивыми и легкими интерпретировать. Экспериментируйте, чтобы выбрать лучшую древовидную глубину для деревьев в ансамбле.

  • Number of learners

    Попытайтесь изменить количество учеников, чтобы видеть, можно ли улучшить модель. Многие ученики могут произвести высокую точность, но могут быть трудоемкими, чтобы соответствовать. Запустите с нескольких дюжин учеников, и затем осмотрите производительность. Ансамблю с хорошей предсказательной силой могут быть нужны несколько сотен учеников.

  • Learning rate

    Задайте темп обучения для уменьшения. Если вы устанавливаете темп обучения на меньше чем 1, ансамбль требует большего количества итераций изучения, но часто достигает лучшей точности. 0.1 популярный выбор.

  • Subspace dimension

    Для ансамблей подпространства задайте количество предикторов к выборке в каждом ученике. Приложение выбирает случайное подмножество предикторов для каждого ученика. Подмножества, выбранные различными учениками, независимы.

Наивные классификаторы Байеса

Наивные классификаторы Байеса легко интерпретировать и полезный для классификации мультиклассов. Наивный алгоритм Бейеса усиливает теорему Бейеса и делает предположение, что предикторы условно независимы, учитывая класс. Используйте эти классификаторы, если это предположение независимости допустимо для предикторов в ваших данных. Однако алгоритм все еще, кажется, работает хорошо, когда предположение независимости не допустимо.

Для наивных классификаторов Байеса ядра можно управлять ядром более сглаженный тип с установкой Kernel Type и управлять ядром, сглаживающим поддержку плотности с установкой Support.

Тип классификатораСкорость прогнозаИспользование памятиInterpretabilityОбразцовая гибкость
Гауссов наивный байесов
Носитель
Медленный для высоко-размерных данных
Маленький
Носитель для высоко-размерных данных
ЛегкийНизко
Вы не можете изменить параметры на гибкость модели управления.
Ядро, наивное байесов
МедленныйНосительЛегкийНоситель
Можно изменить настройки для Kernel Type и Support, чтобы управлять как дистрибутивы предиктора моделей классификатора.

Наивный Байесов в Classification Learner использует функцию fitcnb.

Усовершенствованные наивные байесовы опции

Для наивных классификаторов Байеса ядра можно установить эти опции:

  • Kernel Type — Задайте ядро более сглаженный тип. Попытайтесь установить каждую из этих опций видеть, улучшают ли они модель с вашими данными.

    Опциями типа ядра является Gaussian, Box, Epanechnikov или Triangle.

  • Поддержка Задайте ядро, сглаживающее поддержку плотности. Попытайтесь установить каждую из этих опций видеть, улучшают ли они модель с вашими данными.

    Вариантами поддержки является Unbounded (все действительные значения) или Positive (все положительные действительные значения).

Для следующих моделей обучения шагов см. Модели Классификации Train в Приложении Classification Learner.

Похожие темы