Наивный классификатор Байеса
возвращает наивный шаблон Байеса, подходящий для настройки многоклассовых моделей выходного кода с исправлением ошибок (ECOC). t = templateNaiveBayes()
Если вы задаете шаблон по умолчанию, то во время обучения программное обеспечение использует значения по умолчанию для всех входных параметров.
Задайте t как учащийся в fitcecoc.
возвращает шаблон с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Все свойства t = templateNaiveBayes(Name,Value)t пусты, кроме тех, которые вы задаете используя Name,Value аргументы в виде пар.
Для примера можно задать распределения для предикторов.
Если вы отображаете t в Командном окне, затем все опции появляются пустыми ([]), кроме тех, которые вы задаете используя аргументы пары "имя-значение". Во время обучения программа использует значения по умолчанию для пустых опций.
Если вы задаете 'DistributionNames','mn' при обучении Mdl использование fitcnb, затем программное обеспечение подходит для полиномиального распределения с помощью модели bag-of-tokens. Программа сохраняет вероятность того, что лексема j появляется в классах k в свойстве DistributionParameters . Используя сглаживание добавки [2], предполагаемая вероятность является{k, j}
где:
которое является взвешенным количеством вхождений лексемы j в классе k.
nk - количество наблюдений в k классов.
- вес для i наблюдений. Программа нормирует веса внутри класса, так что они суммируются с предшествующей вероятностью для этого класса.
это общее взвешенное количество вхождений всех лексем в k классов.
Если вы задаете 'DistributionNames','mvmn' при обучении Mdl использование fitcnb, затем:
Для каждого предиктора программное обеспечение собирает список уникальных уровней, хранит отсортированный список в CategoricalLevels, и рассматривает каждый уровень как интервал. Каждая комбинация предиктор/класс является отдельной, независимой полиномиальной случайной переменной.
Для предиктора j в k классов программное обеспечение подсчитывает образцы каждого категориального уровня с помощью списка, хранящегося в CategoricalLevels .{j}
Программа сохраняет вероятность того, что предиктор j, в классах k, имеет L уровня в свойстве DistributionParameters , для всех уровней в {k, j}CategoricalLevels . Используя сглаживание добавки [2], предполагаемая вероятность является{j}
где:
которое является взвешенным количеством наблюдений, для которых j предиктора равен L в классе k.
nk - количество наблюдений в k классов.
если xij = L, в противном случае 0.
- вес для i наблюдений. Программа нормирует веса внутри класса, так что они суммируются с предшествующей вероятностью для этого класса.
mj - количество различных уровней в j предиктора.
mk - взвешенное количество наблюдений в классе k.
[1] Хасти, Т., Р. Тибширани и Дж. Фридман. Элементы статистического обучения, второе издание. Нью-Йорк: Спрингер, 2008.
[2] Мэннинг, К. Д., П. Рагхаван, и М. Шютце. Введение в информационный поиск, NY: Cambridge University Press, 2008.
ClassificationECOC | ClassificationNaiveBayes | fitcecoc | fitcnb