Класс: ClassificationNaiveBayes
Поля классификации для наивных классификаторов Байеса перезаменой
m = resubMargin(Mdl)
возвращает поля классификации перезамены (m
= resubMargin(Mdl
)m
) для наивного классификатора Байеса Mdl
с помощью данных тренировки, хранимых в Mdl.X
и соответствующих метках класса, сохраненных в Mdl.Y
.
Mdl
— Полностью обученный наивный классификатор БайесаClassificationNaiveBayes
Полностью обученный наивный классификатор Байеса, заданный как модель ClassificationNaiveBayes
, обученная fitcnb
.
m
Поля классификацииПоля классификации, возвращенные как числовой вектор.
m
имеет ту же длину, равную size(Mdl.X,1)
. Каждая запись m
является полем классификации соответствующего наблюдения (строка) Mdl.X
и элемент Mdl.Y
.
Загрузите ирисовый набор данных Фишера.
load fisheriris X = meas; % Predictors Y = species; % Response
Обучите наивный классификатор Байеса. Это - хорошая практика, чтобы задать порядок класса. Примите, что каждый предиктор условно, нормально распределен, учитывая свою метку.
Mdl = fitcnb(X,Y,'ClassNames',{'setosa','versicolor','virginica'});
Mdl
является классификатором ClassificationNaiveBayes
.
Оцените поля классификации в выборке. Отобразите распределение полей с помощью коробчатой диаграммы.
m = resubMargin(Mdl);
figure;
boxplot(m);
h = gca;
iqr = quantile(m,0.75) - quantile(m,0.25);
h.YLim = median(m) + iqr*[-4 4];
title 'Boxplot of the Margins';
Поле наблюдения является наблюдаемым (TRUE) счетом класса минус максимальный ложный счет класса среди всех очков в соответствующем классе. Классификаторы, которые приводят к относительно большим полям, желательны.
Мера по полям классификатора, для каждого наблюдения, различие между истинным классом наблюдало счет и максимальный ложный счет класса к конкретному классу. Один способ выполнить выбор функции состоит в том, чтобы сравнить поля в выборке от многоуровневых моделей. Базирующийся только на этом критерии, модель с самыми высокими полями является лучшей моделью.
Загрузите ирисовый набор данных Фишера. Задайте два набора данных:
fullX
содержит все предикторы (кроме удаленного столбца 0s).
partX
содержит последние 20 предикторов.
load fisheriris X = meas; % Predictors Y = species; % Response fullX = X; partX = X(:,3:4);
Обучите наивные классификаторы Байеса каждому набору предиктора.
FullMdl = fitcnb(fullX,Y); PartMdl = fitcnb(partX,Y);
Оцените поля в выборке для каждого классификатора. Вычислите доверительные интервалы для каждой выборки.
fullM = resubMargin(FullMdl); partM = resubMargin(PartMdl); n = size(X,1); fullMCI = mean(fullM) + 2*[-std(fullM)/n std(fullM)/n]
fullMCI = 1×2
0.8898 0.8991
partMCI = mean(partM) + 2*[-std(partM)/n std(partM)/n]
partMCI = 1×2
0.9129 0.9209
Доверительные интервалы являются трудными, и взаимоисключающими. Граничный доверительный интервал классификатора, обученного с помощью только предикторы 3 и 4, имеет более высокие значения, чем та из полной модели. Поэтому модель, обученная на двух предикторах, имеет лучшую производительность в выборке.
classification edge является взвешенным средним полей классификации.
Если вы предоставляете веса, то программное обеспечение нормирует их, чтобы суммировать к априорной вероятности их соответствующего класса. Программное обеспечение использует нормированные веса, чтобы вычислить взвешенное среднее.
Один способ выбрать среди нескольких классификаторов, например, выполнить выбор функции, состоит в том, чтобы выбрать классификатор, который приводит к самому высокому ребру.
classification margins, для каждого наблюдения, различия между счетом к истинному классу и максимальным счетом к ложным классам. При условии, что они находятся в той же шкале, поля служат мерой по уверенности классификации, т.е. среди нескольких классификаторов, те, которые уступают, большие поля лучше.
posterior probability является вероятностью, что наблюдение принадлежит конкретного класса, учитывая данные.
Для наивного Бейеса апостериорная вероятность, что классификацией является k для данного наблюдения (x 1..., xP)
где:
условная объединенная плотность предикторов, учитывая, они находятся в классе k. Mdl.DistributionNames
хранит имена распределения предикторов.
π (Y = k) является распределением априорной вероятности класса. Mdl.Prior
хранит предшествующее распределение.
объединенная плотность предикторов. Классы дискретны, таким образом,
prior probability класса является относительной частотой, которой верят, с которой наблюдения от того класса происходят в генеральной совокупности.
Наивный Байесов score является апостериорной вероятностью класса, учитывая наблюдение.
ClassificationSVM
| CompactClassificationSVM
| fitcsvm
| margin
| resubEdge
| resubLoss
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.