Потеря классификации перезамены
возвращает Ущерб Классификации от перезамены (L) или потерю классификации в выборке, для обученной модели L
= resubLoss(Mdl
)Mdl
классификации использование обучающих данных сохранено в
Mdl.X
и соответствующие метки класса сохранены в Mdl.Y
.
Интерпретация L
зависит от функции потерь ('LossFun'
) и взвешивание схемы (Mdl.W
). В общем случае лучшие классификаторы дают к меньшим значениям классификации потерь. 'LossFun'
по умолчанию значение варьируется в зависимости от объекта модели
Mdl
.
задает дополнительные опции с помощью одного или нескольких аргументов значения имени. Например, L
= resubLoss(Mdl
,Name,Value
)'LossFun','binodeviance'
устанавливает функцию потерь на биномиальную функцию отклонения.
Определите ошибку классификации в выборке (потеря перезамены) наивного классификатора Байеса. В общем случае меньшая потеря указывает на лучший классификатор.
Загрузите fisheriris
набор данных. Создайте X
как числовая матрица, которая содержит четыре измерения для 150 ирисовых диафрагм. Создайте Y
как массив ячеек из символьных векторов, который содержит соответствующие ирисовые разновидности.
load fisheriris
X = meas;
Y = species;
Обучите наивный классификатор Байеса с помощью предикторов X
и класс маркирует Y
. Методические рекомендации должны задать имена классов. fitcnb
принимает, что каждый предиктор условно и нормально распределен.
Mdl = fitcnb(X,Y,'ClassNames',{'setosa','versicolor','virginica'})
Mdl = ClassificationNaiveBayes ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' NumObservations: 150 DistributionNames: {'normal' 'normal' 'normal' 'normal'} DistributionParameters: {3x4 cell} Properties, Methods
Mdl
обученный ClassificationNaiveBayes
классификатор.
Оцените ошибку классификации в выборке.
L = resubLoss(Mdl)
L = 0.0400
Наивный классификатор Байеса неправильно классифицирует 4% учебных наблюдений.
Загрузите ionosphere
набор данных. Этот набор данных имеет 34 предиктора, и 351 бинарный ответ для радара возвращается, любой плохо ('b'
) или хороший ('g'
).
load ionosphere
Обучите классификатор машины опорных векторов (SVM). Стандартизируйте данные и задайте тот 'g'
положительный класс.
SVMModel = fitcsvm(X,Y,'ClassNames',{'b','g'},'Standardize',true);
SVMModel
обученный ClassificationSVM
классификатор.
Оцените потерю стержня в выборке.
L = resubLoss(SVMModel,'LossFun','hinge')
L = 0.1603
Потерей стержня является 0.1603
. Классификаторы с потерями стержня близко к 0 предпочтены.
Обучите обобщенную аддитивную модель (GAM), которая содержит и линейные члены и периоды взаимодействия для предикторов, и оцените потерю классификации с и без периодов взаимодействия. Задайте, включать ли периоды взаимодействия при оценке потери классификации для обучения и тестовых данных.
Загрузите ionosphere
набор данных. Этот набор данных имеет 34 предиктора, и 351 бинарный ответ для радара возвращается, любой плохо ('b'
) или хороший ('g'
).
load ionosphere
Разделите набор данных в два набора: один содержащий обучающие данные и другой содержащий новые, ненаблюдаемые тестовые данные. Зарезервируйте 50 наблюдений для нового набора тестовых данных.
rng('default') % For reproducibility n = size(X,1); newInds = randsample(n,50); inds = ~ismember(1:n,newInds); XNew = X(newInds,:); YNew = Y(newInds);
Обучите GAM с помощью предикторов X
и класс маркирует Y
. Методические рекомендации должны задать имена классов. Задайте, чтобы включать 10 самых важных периодов взаимодействия.
Mdl = fitcgam(X(inds,:),Y(inds),'ClassNames',{'b','g'},'Interactions',10)
Mdl = ClassificationGAM ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'logit' Intercept: 2.0026 Interactions: [10x2 double] NumObservations: 301 Properties, Methods
Mdl
ClassificationGAM
объект модели.
Вычислите потерю классификации перезамены и с и без периодов взаимодействия в Mdl
. Чтобы исключить периоды взаимодействия, задайте 'IncludeInteractions',false
.
resubl = resubLoss(Mdl)
resubl = 0
resubl_nointeraction = resubLoss(Mdl,'IncludeInteractions',false)
resubl_nointeraction = 0
Оцените потерю классификации и с и без периодов взаимодействия в Mdl
.
l = loss(Mdl,XNew,YNew)
l = 0.0615
l_nointeraction = loss(Mdl,XNew,YNew,'IncludeInteractions',false)
l_nointeraction = 0.0615
Включая периоды взаимодействия не изменяет потерю классификации для Mdl
. Обученная модель классифицирует все обучающие выборки правильно и неправильно классифицирует приблизительно 6% тестовых выборок.
Mdl
— Модель машинного обучения классификацииМодель машинного обучения классификации в виде полного объекта модели классификации, как дали в следующей таблице поддерживаемых моделей.
Модель | Объект модели классификации |
---|---|
Обобщенная аддитивная модель | ClassificationGAM |
k- соседняя модель | ClassificationKNN |
Наивная модель Bayes | ClassificationNaiveBayes |
Модель нейронной сети | ClassificationNeuralNetwork |
Машина опорных векторов для и бинарной классификации одного класса | ClassificationSVM |
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
resubLoss(Mdl,'LossFun','logit')
оценивает потерю перезамены логита.'IncludeInteractions'
— Отметьте, чтобы включать периоды взаимодействияtrue
| false
Отметьте, чтобы включать периоды взаимодействия модели в виде true
или false
. Этот аргумент допустим только для обобщенной аддитивной модели (GAM). Таким образом, можно задать этот аргумент только когда Mdl
ClassificationGAM
.
Значением по умолчанию является true
если Mdl
содержит периоды взаимодействия. Значением должен быть false
если модель не содержит периоды взаимодействия.
Типы данных: логический
'LossFun'
— Функция потерь'binodeviance'
| 'classiferror'
| 'crossentropy'
| 'exponential'
| 'hinge'
| 'logit'
| 'mincost'
| 'quadratic'
| указатель на функциюФункция потерь в виде встроенного имени функции потерь или указателя на функцию.
Эта таблица приводит доступные функции потерь. Задайте тот с помощью его соответствующего вектора символов или строкового скаляра.
Значение | Описание |
---|---|
'binodeviance' | Биномиальное отклонение |
'classiferror' | Неправильно классифицированный уровень в десятичном числе |
'crossentropy' | Потеря перекрестной энтропии (только для нейронных сетей) |
'exponential' | Экспоненциальная потеря |
'hinge' | Потеря стержня |
'logit' | Логистическая потеря |
'mincost' | Минимальный ожидал стоимость misclassification (для классификационных оценок, которые являются апостериорными вероятностями), |
'quadratic' | Квадратичная потеря |
Значение по умолчанию зависит от обученной модели (Mdl
).
Значением по умолчанию является 'classiferror'
если Mdl
ClassificationGAM
, ClassificationNeuralNetwork
, или ClassificationSVM
объект.
Значением по умолчанию является 'mincost'
если Mdl
ClassificationKNN
или ClassificationNaiveBayes
объект.
Для получения дополнительной информации о функциях потерь смотрите Потерю Классификации.
Чтобы задать пользовательскую функцию потерь, используйте обозначение указателя на функцию. Функция должна иметь эту форму:
lossvalue = lossfun
(C,S,W,Cost)
Выходной аргумент lossvalue
скаляр.
Вы задаете имя функции (lossfun
).
C
n
- K
логическая матрица со строками, указывающими на класс, которому принадлежит соответствующее наблюдение. n
количество наблюдений в Tbl
или X
, и K
количество отличных классов (numel(Mdl.ClassNames)
. Порядок следования столбцов соответствует порядку класса в Mdl.ClassNames
. Создайте C
установкой C(p,q) = 1
, если наблюдение p
находится в классе q
, для каждой строки. Установите все другие элементы строки p
к 0
.
S
n
- K
числовая матрица классификационных оценок. Порядок следования столбцов соответствует порядку класса в Mdl.ClassNames
S
матрица классификационных оценок, похожих на выход predict
.
W
n
- 1 числовой вектор из весов наблюдения.
Cost
K
- K
числовая матрица затрат misclassification. Например, Cost = ones(K) – eye(K)
задает стоимость 0
для правильной классификации и 1
для misclassification.
Пример: 'LossFun','binodeviance'
Типы данных: char |
string
| function_handle
Функции Classification loss измеряют прогнозирующую погрешность моделей классификации. Когда вы сравниваете тот же тип потери среди многих моделей, более низкая потеря указывает на лучшую прогнозную модель.
Рассмотрите следующий сценарий.
L является средневзвешенной потерей классификации.
n является объемом выборки.
Для бинарной классификации:
yj является наблюдаемой меткой класса. Программные коды это как –1 или 1, указывая на отрицательный или положительный класс (или первый или второй класс в ClassNames
свойство), соответственно.
f (Xj) является классификационной оценкой положительного класса для наблюдения (строка) j данных о предикторе X.
mj = yj f (Xj) является классификационной оценкой для классификации наблюдения j в класс, соответствующий yj. Положительные значения mj указывают на правильную классификацию и не способствуют очень средней потере. Отрицательные величины mj указывают на неправильную классификацию и значительно способствуют средней потере.
Для алгоритмов, которые поддерживают классификацию мультиклассов (то есть, K ≥ 3):
yj* является вектором из K – 1 нуль, с 1 в положении, соответствующем истинному, наблюдаемому классу yj. Например, если истинный класс второго наблюдения является третьим классом и K = 4, то y 2* = [0 0 1 0] ′. Порядок классов соответствует порядку в ClassNames
свойство входной модели.
f (Xj) является длиной вектор K из музыки класса к наблюдению j данных о предикторе X. Порядок баллов соответствует порядку классов в ClassNames
свойство входной модели.
mj = yj* ′ f (Xj). Поэтому mj является скалярной классификационной оценкой, которую модель предсказывает для истинного, наблюдаемого класса.
Весом для наблюдения j является wj. Программное обеспечение нормирует веса наблюдения так, чтобы они суммировали к соответствующей предшествующей вероятности класса. Программное обеспечение также нормирует априорные вероятности, таким образом, они суммируют к 1. Поэтому
Учитывая этот сценарий, следующая таблица описывает поддерживаемые функции потерь, которые можно задать при помощи 'LossFun'
аргумент пары "имя-значение".
Функция потерь | Значение LossFun | Уравнение |
---|---|---|
Биномиальное отклонение | 'binodeviance' | |
Неправильно классифицированный уровень в десятичном числе | 'classiferror' | метка класса, соответствующая классу с максимальным счетом. I {·} является функцией индикатора. |
Потеря перекрестной энтропии | 'crossentropy' |
Взвешенная потеря перекрестной энтропии где веса нормированы, чтобы суммировать к n вместо 1. |
Экспоненциальная потеря | 'exponential' | |
Потеря стержня | 'hinge' | |
Потеря логита | 'logit' | |
Минимальный ожидал стоимость misclassification | 'mincost' |
Программное обеспечение вычисляет взвешенную минимальную ожидаемую стоимость классификации с помощью этой процедуры для наблюдений j = 1..., n.
Взвешенное среднее минимального ожидало, что потеря стоимости misclassification Если вы используете матрицу стоимости по умолчанию (чье значение элемента 0 для правильной классификации и 1 для неправильной классификации), то |
Квадратичная потеря | 'quadratic' |
Этот рисунок сравнивает функции потерь (кроме 'crossentropy'
и 'mincost'
) по счету m для одного наблюдения. Некоторые функции нормированы, чтобы пройти через точку (0,1).
resubLoss
вычисляет потерю классификации согласно соответствию loss
функция объекта (Mdl
). Для описания модели специфичного смотрите loss
страницы ссылки на функцию в следующей таблице.
Модель | Объект модели классификации (Mdl ) | loss Объектная функция |
---|---|---|
Обобщенная аддитивная модель | ClassificationGAM | loss |
k- соседняя модель | ClassificationKNN | loss |
Наивная модель Bayes | ClassificationNaiveBayes | loss |
Модель нейронной сети | ClassificationNeuralNetwork | loss |
Машина опорных векторов для и бинарной классификации одного класса | ClassificationSVM | loss |
Указания и ограничения по применению:
Эта функция поддерживает ClassificationKNN
и ClassificationSVM
объекты снабжены входными параметрами графического процессора массивов.
Для получения дополнительной информации смотрите функции MATLAB Запуска на графическом процессоре (Parallel Computing Toolbox).
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.