Наивный классификатор Байеса
возвращает наивный шаблон Байеса, подходящий для настройки многоклассовых моделей выходного кода с исправлением ошибок (ECOC). t
= templateNaiveBayes()
Если вы задаете шаблон по умолчанию, то во время обучения программное обеспечение использует значения по умолчанию для всех входных параметров.
Задайте t
как учащийся в fitcecoc
.
возвращает шаблон с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Все свойства t
= templateNaiveBayes(Name,Value
)t
пусты, кроме тех, которые вы задаете используя Name,Value
аргументы в виде пар.
Для примера можно задать распределения для предикторов.
Если вы отображаете t
в Командном окне, затем все опции появляются пустыми ([]
), кроме тех, которые вы задаете используя аргументы пары "имя-значение". Во время обучения программа использует значения по умолчанию для пустых опций.
Если вы задаете 'DistributionNames','mn'
при обучении Mdl
использование fitcnb
, затем программное обеспечение подходит для полиномиального распределения с помощью модели bag-of-tokens. Программа сохраняет вероятность того, что лексема j
появляется в классах k
в свойстве DistributionParameters
. Используя сглаживание добавки [2], предполагаемая вероятность является{k
, j
}
где:
которое является взвешенным количеством вхождений лексемы j в классе k.
nk - количество наблюдений в k классов.
- вес для i наблюдений. Программа нормирует веса внутри класса, так что они суммируются с предшествующей вероятностью для этого класса.
это общее взвешенное количество вхождений всех лексем в k классов.
Если вы задаете 'DistributionNames','mvmn'
при обучении Mdl
использование fitcnb
, затем:
Для каждого предиктора программное обеспечение собирает список уникальных уровней, хранит отсортированный список в CategoricalLevels
, и рассматривает каждый уровень как интервал. Каждая комбинация предиктор/класс является отдельной, независимой полиномиальной случайной переменной.
Для предиктора j
в k классов программное обеспечение подсчитывает образцы каждого категориального уровня с помощью списка, хранящегося в CategoricalLevels
.{j
}
Программа сохраняет вероятность того, что предиктор j
, в классах k
, имеет L уровня в свойстве DistributionParameters
, для всех уровней в {k
, j
}CategoricalLevels
. Используя сглаживание добавки [2], предполагаемая вероятность является{j
}
где:
которое является взвешенным количеством наблюдений, для которых j предиктора равен L в классе k.
nk - количество наблюдений в k классов.
если xij = L, в противном случае 0.
- вес для i наблюдений. Программа нормирует веса внутри класса, так что они суммируются с предшествующей вероятностью для этого класса.
mj - количество различных уровней в j предиктора.
mk - взвешенное количество наблюдений в классе k.
[1] Хасти, Т., Р. Тибширани и Дж. Фридман. Элементы статистического обучения, второе издание. Нью-Йорк: Спрингер, 2008.
[2] Мэннинг, К. Д., П. Рагхаван, и М. Шютце. Введение в информационный поиск, NY: Cambridge University Press, 2008.
ClassificationECOC
| ClassificationNaiveBayes
| fitcecoc
| fitcnb