resubMargin

Поля классификации перезамены для наивного классификатора Байеса

Синтаксис

Описание

пример

m = resubMargin(Mdl) возвращает Поле Классификации перезамены (m) для наивного классификатора Байеса Mdl использование обучающих данных сохранено в Mdl.X и соответствующие метки класса сохранены в Mdl.Y.

m возвращен как числовой вектор с той же длиной как Y. Программное обеспечение оценивает каждую запись m использование обученного наивного классификатора Байеса Mdl, соответствующая строка X, и истинная метка Y класса.

Примеры

свернуть все

Оцените перезамену поля классификации (в выборке) наивного классификатора Байеса. Поле наблюдения является наблюдаемым истинным счетом класса минус максимальный ложный счет класса среди всех баллов в соответствующем классе.

Загрузите fisheriris набор данных. Создайте X как числовая матрица, которая содержит четыре лепестковых измерения для 150 ирисовых диафрагм. Создайте Y как массив ячеек из символьных векторов, который содержит соответствующие ирисовые разновидности.

load fisheriris
X = meas;
Y = species;

Обучите наивный классификатор Байеса с помощью предикторов X и класс маркирует Y. Методические рекомендации должны задать имена классов. fitcnb принимает, что каждый предиктор условно и нормально распределен.

Mdl = fitcnb(X,Y,'ClassNames',{'setosa','versicolor','virginica'})
Mdl = 
  ClassificationNaiveBayes
              ResponseName: 'Y'
     CategoricalPredictors: []
                ClassNames: {'setosa'  'versicolor'  'virginica'}
            ScoreTransform: 'none'
           NumObservations: 150
         DistributionNames: {'normal'  'normal'  'normal'  'normal'}
    DistributionParameters: {3x4 cell}


  Properties, Methods

Mdl обученный ClassificationNaiveBayes классификатор.

Оцените поля классификации перезамены.

m = resubMargin(Mdl);
median(m)
ans = 1.0000

Отобразите гистограмму полей классификации в выборке.

histogram(m,30,'Normalization','probability')
xlabel('In-Sample Margins')
ylabel('Probability')
title('Probability Distribution of the In-Sample Margins')

Предпочтены классификаторы, которые дают к относительно большим полям.

Выполните выбор признаков путем сравнения полей в выборке от многоуровневых моделей. Базирующийся только на этом сравнении, модель с самыми высокими полями является лучшей моделью.

Загрузите fisheriris набор данных. Задайте предикторы X и класс маркирует Y.

load fisheriris
X = meas;
Y = species;

Задайте эти два набора данных:

  • fullX содержит все предикторы.

  • partX содержит последние два предиктора.

fullX = X;
partX = X(:,3:4);

Обучите наивный классификатор Байеса каждому набору предиктора.

FullMdl = fitcnb(fullX,Y);
PartMdl = fitcnb(partX,Y);

Оцените поля в выборке для каждого классификатора.

fullM = resubMargin(FullMdl);
median(fullM)
ans = 1.0000
partM = resubMargin(PartMdl);
median(partM)
ans = 1.0000

Эти две модели имеют подобную эффективность. Однако PartMdl является менее комплексным.

Входные параметры

свернуть все

Полный, обученный наивный классификатор Байеса в виде ClassificationNaiveBayes модель, обученная fitcnb.

Больше о

свернуть все

Ребро классификации

classification edge является взвешенным средним полей классификации.

Если вы предоставляете веса, то программное обеспечение нормирует их, чтобы суммировать к априорной вероятности их соответствующего класса. Программное обеспечение использует нормированные веса, чтобы вычислить взвешенное среднее.

При желании среди нескольких классификаторов выполнить задачу, такую как раздел функции, выберите классификатор, который дает к самому высокому ребру.

Поле классификации

classification margin для каждого наблюдения является различием между счетом к истинному классу и максимальным счетом к ложным классам. Поля обеспечивают меру по доверию классификации; среди нескольких классификаторов те, которые дают к большим полям (по той же шкале) лучше.

Апостериорная вероятность

posterior probability является вероятностью, что наблюдение принадлежит конкретного класса, учитывая данные.

Для наивного Бейеса апостериорная вероятность, что классификацией является k для заданного наблюдения (x 1..., xP)

P^(Y=k|x1,..,xP)=P(X1,...,XP|y=k)π(Y=k)P(X1,...,XP),

где:

  • P(X1,...,XP|y=k) условная объединенная плотность предикторов, учитывая, они находятся в классе k. Mdl.DistributionNames хранит имена распределения предикторов.

  • π (Y = k) является распределением априорной вероятности класса. Mdl.Prior хранит предшествующее распределение.

  • P(X1,..,XP) объединенная плотность предикторов. Классы дискретны, таким образом, P(X1,...,XP)=k=1KP(X1,...,XP|y=k)π(Y=k).

Априорная вероятность

prior probability класса является принятой относительной частотой, с которой наблюдения от того класса происходят в населении.

Классификационная оценка

Наивный Байесов score является апостериорной вероятностью класса, учитывая наблюдение.

Введенный в R2014b
Для просмотра документации необходимо авторизоваться на сайте