Класс: ClassificationNaiveBayes
Поля классификации для наивных классификаторов Байеса перезаменой
возвращает поля классификации перезамены (m
= resubMargin(Mdl
)m
) для наивного классификатора Байеса Mdl
использование обучающих данных сохранено в Mdl.X
и соответствующие метки класса сохранены в Mdl.Y
.
Mdl
— Полностью обученный наивный классификатор БайесаClassificationNaiveBayes
модельПолностью обученный наивный классификатор Байеса в виде ClassificationNaiveBayes
модель обучена fitcnb
.
m
— Поля классификацииПоля классификации, возвращенные как числовой вектор.
m
имеет ту же длину, равную size(Mdl.X,1)
. Каждая запись m
поле классификации соответствующего наблюдения (строка) Mdl.X
и элемент Mdl.Y
.
Загрузите ирисовый набор данных Фишера.
load fisheriris X = meas; % Predictors Y = species; % Response
Обучите наивный классификатор Байеса. Это - хорошая практика, чтобы задать порядок класса. Примите, что каждый предиктор условно, нормально распределен, учитывая свою метку.
Mdl = fitcnb(X,Y,'ClassNames',{'setosa','versicolor','virginica'});
Mdl
ClassificationNaiveBayes
классификатор.
Оцените поля классификации в выборке. Отобразите распределение полей с помощью коробчатой диаграммы.
m = resubMargin(Mdl);
figure;
boxplot(m);
h = gca;
iqr = quantile(m,0.75) - quantile(m,0.25);
h.YLim = median(m) + iqr*[-4 4];
title 'Boxplot of the Margins';
Поле наблюдения является наблюдаемым (TRUE) счетом класса минус максимальный ложный счет класса среди всех баллов в соответствующем классе. Классификаторы, которые дают к относительно большим полям, желательны.
Мера по полям классификатора, для каждого наблюдения, различие между истинным классом наблюдало счет и максимальный ложный счет класса к конкретному классу. Один способ выполнить выбор признаков состоит в том, чтобы сравнить поля в выборке от многоуровневых моделей. Базирующийся только на этом критерии, модель с самыми высокими полями является лучшей моделью.
Загрузите ирисовый набор данных Фишера. Задайте два набора данных:
fullX
содержит все предикторы (кроме удаленного столбца 0s).
partX
содержит последние 20 предикторов.
load fisheriris X = meas; % Predictors Y = species; % Response fullX = X; partX = X(:,3:4);
Обучите наивные классификаторы Байеса каждому набору предиктора.
FullMdl = fitcnb(fullX,Y); PartMdl = fitcnb(partX,Y);
Оцените поля в выборке для каждого классификатора. Вычислите доверительные интервалы для каждой выборки.
fullM = resubMargin(FullMdl); partM = resubMargin(PartMdl); n = size(X,1); fullMCI = mean(fullM) + 2*[-std(fullM)/n std(fullM)/n]
fullMCI = 1×2
0.8898 0.8991
partMCI = mean(partM) + 2*[-std(partM)/n std(partM)/n]
partMCI = 1×2
0.9129 0.9209
Доверительные интервалы являются трудными, и взаимоисключающими. Граничный доверительный интервал классификатора, обученного с помощью только предикторы 3 и 4, имеет более высокие значения, чем та из полной модели. Поэтому модель, обученная на двух предикторах, имеет лучшую производительность в выборке.
classification edge является взвешенным средним полей классификации.
Если вы предоставляете веса, то программное обеспечение нормирует их, чтобы суммировать к априорной вероятности их соответствующего класса. Программное обеспечение использует нормированные веса, чтобы вычислить взвешенное среднее.
Один способ выбрать среди нескольких классификаторов, например, выполнить выбор признаков, состоит в том, чтобы выбрать классификатор, который дает к самому высокому ребру.
classification margins, для каждого наблюдения, различия между счетом к истинному классу и максимальным счетом к ложным классам. При условии, что они находятся по той же шкале, поля служат мерой по доверию классификации, т.е. среди нескольких классификаторов, те, которые уступают, большие поля лучше.
posterior probability является вероятностью, что наблюдение принадлежит конкретного класса, учитывая данные.
Для наивного Бейеса апостериорная вероятность, что классификацией является k для заданного наблюдения (x 1..., xP)
где:
условная объединенная плотность предикторов, учитывая, они находятся в классе k. Mdl.DistributionNames
хранит имена распределения предикторов.
π (Y = k) является распределением априорной вероятности класса. Mdl.Prior
хранит предшествующее распределение.
объединенная плотность предикторов. Классы дискретны, таким образом,
prior probability класса является относительной частотой, которой верят, с которой наблюдения от того класса происходят в населении.
Наивный Байесов score является апостериорной вероятностью класса, учитывая наблюдение.
ClassificationSVM
| CompactClassificationSVM
| fitcsvm
| margin
| resubEdge
| resubLoss
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.