Суперклассы: CompactClassificationNaiveBayes
Наивная Байесова классификация
ClassificationNaiveBayes
наивный классификатор Байеса для изучения мультикласса. Используйте fitcnb
и обучающие данные, чтобы обучить ClassificationNaiveBayes
классификатор.
Обученный ClassificationNaiveBayes
классификаторы хранят обучающие данные, значения параметров, распределение данных и априорные вероятности. Можно использовать эти классификаторы для:
Оцените предсказания перезамены. Для получения дополнительной информации смотрите resubPredict
.
Предскажите метки или апостериорные вероятности для новых данных. Для получения дополнительной информации смотрите predict
.
Создайте ClassificationNaiveBayes
объект при помощи fitcnb
.
компактный | Компактный наивный классификатор Байеса |
crossval | Перекрестный подтвержденный наивный классификатор Байеса |
resubEdge | Ребро классификации для наивных классификаторов Байеса перезаменой |
resubLoss | Потеря классификации для наивных классификаторов Байеса перезаменой |
resubMargin | Поля классификации для наивных классификаторов Байеса перезаменой |
resubPredict | Предскажите метки перезамены наивного классификатора Байеса |
ребро | Ребро классификации для наивных классификаторов Байеса |
logP | Регистрируйте безусловную плотность вероятности для наивного классификатора Байеса |
потеря | Ошибка классификации для наивного классификатора Байеса |
поле | Поля классификации для наивных классификаторов Байеса |
предсказать | Предскажите метки с помощью наивной модели классификации Бейеса |
Значение. Чтобы изучить, как классы значения влияют на операции копии, смотрите Копирование Объектов (MATLAB).
Если вы задаете 'DistributionNames','mn'
когда учебный Mdl
использование fitcnb
, затем программное обеспечение соответствует распределению многочлена с помощью модели сумки лексем. Программное обеспечение хранит вероятность тот маркерный j
появляется в классе k
в свойстве DistributionParameters {
. Используя дополнение, сглаживающее [2], предполагаемая вероятностьk
J
}
где:
который является взвешенным количеством случаев маркерного j в классе k.
nk является количеством наблюдений в классе k.
вес для наблюдения i. Программное обеспечение нормирует веса в классе, таким образом, что они суммируют к априорной вероятности для того класса.
который является общим взвешенным количеством случаев всех лексем в классе k.
Если вы задаете 'DistributionNames','mvmn'
когда учебный Mdl
использование fitcnb
затем:
Для каждого предиктора программное обеспечение собирает список уникальных уровней, хранит отсортированный список в CategoricalLevels
, и считает каждый уровень интервалом. Каждая комбинация предиктора/класса является отдельной, независимой случайной переменной многочлена.
Для предиктора j
в классе k, экземпляры программно-реализованных счетчиков каждого категориального уровня с помощью списка, сохраненного в CategoricalLevels {
.j
}
Программное обеспечение хранит вероятность тот предиктор j
, в классе k
, имеет уровень L в свойстве DistributionParameters {
, для всех уровней в k
J
}CategoricalLevels {
. Используя дополнение, сглаживающее [2], предполагаемая вероятностьj
}
где:
который является взвешенным количеством наблюдений, для которого предиктора j равняется L в классе k.
nk является количеством наблюдений в классе k.
если xij = L, 0 в противном случае.
вес для наблюдения i. Программное обеспечение нормирует веса в классе, таким образом, что они суммируют к априорной вероятности для того класса.
mj является количеством отличных уровней в предикторе j.
mk является взвешенным количеством наблюдений в классе k.
[1] Hastie, T., Р. Тибширэни и Дж. Фридман. Элементы статистического изучения, второго выпуска. Нью-Йорк: Спрингер, 2008.
[2] Укомплектование людьми, C. D. П. Рэгэвэн и М. Шюц. Введение в Информэйшн-Ретривэл, Нью-Йорк: Издательство Кембриджского университета, 2008.
CompactClassificationNaiveBayes
| compareHoldout
| fitcnb
| loss
| predict