Потеря классификации перезамены для модели выходных кодов с коррекцией ошибок (ECOC) мультикласса
L = resubLoss(Mdl)
L = resubLoss(Mdl,Name,Value)
возвращает ущерб классификации от перезамены (L
= resubLoss(Mdl
)L
) для модели Mdl
выходных кодов с коррекцией ошибок (ECOC) мультикласса с помощью данных тренировки, хранимых в Mdl.X
и соответствующих метках класса, сохраненных в Mdl.Y
. По умолчанию resubLoss
использует ошибку классификации вычислить L
.
Потеря классификации (L
) является обобщением или качественной мерой по перезамене. Его интерпретация зависит от функции потерь и схемы взвешивания, но в целом, лучшие классификаторы приводят к меньшим значениям классификации потерь.
возвращает потерю классификации с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Например, можно задать функцию потерь, декодируя схему и уровень многословия.L
= resubLoss(Mdl
,Name,Value
)
Вычислите потерю перезамены для модели ECOC с бинарными учениками SVM.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
и данные об ответе Y
.
load fisheriris
X = meas;
Y = species;
Обучите модель ECOC с помощью двоичных классификаторов SVM. Стандартизируйте предикторы с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',true);
classOrder = unique(Y)
classOrder = 3x1 cell array
{'setosa' }
{'versicolor'}
{'virginica' }
Mdl = fitcecoc(X,Y,'Learners',t,'ClassNames',classOrder);
t
является объектом шаблона SVM. Во время обучения программное обеспечение использует значения по умолчанию для пустых свойств в t
. Mdl
является моделью ClassificationECOC
.
Оцените ошибку классификации перезамены, которая является потерей классификации по умолчанию.
L = resubLoss(Mdl)
L = 0.0267
Модель ECOC неправильно классифицирует 2,67% учебно-демонстрационных ирисовых диафрагм.
Определите качество модели ECOC при помощи пользовательской функции потерь, которая рассматривает минимальную бинарную потерю для каждого наблюдения.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
, данные об ответе Y
и порядок классов в Y
.
load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y) % Class order
classOrder = 3x1 categorical array
setosa
versicolor
virginica
rng(1); % For reproducibility
Обучите модель ECOC с помощью двоичных классификаторов SVM. Стандартизируйте предикторы с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',true); Mdl = fitcecoc(X,Y,'Learners',t,'ClassNames',classOrder);
t
является объектом шаблона SVM. Во время обучения программное обеспечение использует значения по умолчанию для пустых свойств в t
. Mdl
является моделью ClassificationECOC
.
Создайте функцию, которая терпит минимальные убытки для каждого наблюдения, затем составляет в среднем минимальные потери для всех наблюдений. S
соответствует NegLoss
вывод resubPredict
.
lossfun = @(~,S,~,~)mean(min(-S,[],2));
Вычислите пользовательскую потерю классификации для данных тренировки.
resubLoss(Mdl,'LossFun',lossfun)
ans = 0.0065
Средней минимальной бинарной потерей для данных тренировки является 0.0065
.
Mdl
— Полный, обученный мультикласс модель ECOCClassificationECOC
Полный, обученный мультикласс модель ECOC, заданная как модель ClassificationECOC
, обученная с fitcecoc
.
Укажите необязательные аргументы в виде пар ""имя, значение"", разделенных запятыми.
Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение.
Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.
resubLoss(Mdl,'BinaryLoss','hamming','LossFun',@lossfun)
задает 'hamming'
как бинарную функцию потерь ученика и пользовательский указатель на функцию @lossfun
как полная функция потерь.'BinaryLoss'
— Бинарная функция потерь ученика'hamming'
| 'linear'
| 'logit'
| 'exponential'
| 'binodeviance'
| 'hinge'
| 'quadratic'
| указатель на функциюБинарная функция потерь ученика, заданная как пара, разделенная запятой, состоящая из 'BinaryLoss'
и встроенного имени функции потерь или указателя на функцию.
Эта таблица описывает встроенные функции, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j, и g (yj, sj) является бинарной формулой потерь.
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери так, чтобы потеря была 0.5 когда yj = 0. Кроме того, программное обеспечение вычисляет среднюю бинарную потерю для каждого класса.
Для пользовательской бинарной функции потерь, например, customFunction
, задают его указатель на функцию 'BinaryLoss',@customFunction
.
customFunction
имеет эту форму:
bLoss = customFunction(M,s)
M
является K-by-L кодирующий матрицу, сохраненную в Mdl.CodingMatrix
.
s
является 1 L вектором - строкой из очков классификации.
bLoss
является потерей классификации. Этот скаляр агрегировал бинарные потери для каждого ученика в конкретном классе. Например, можно использовать среднюю бинарную потерю, чтобы агрегировать потерю по ученикам для каждого класса.
K является количеством классов.
L является количеством бинарных учеников.
Для примера передачи пользовательской бинарной функции потерь смотрите, Предсказывают Демонстрационные Тестом Метки Модели ECOC Используя Пользовательскую Бинарную Функцию потерь.
Значение BinaryLoss
по умолчанию зависит от областей значений счета, возвращенных бинарными учениками. Эта таблица описывает некоторые значения BinaryLoss
по умолчанию на основе данных предположений.
Предположение | Значение по умолчанию |
---|---|
Все бинарные ученики являются SVMs или или линейный или модели классификации ядер учеников SVM. | 'hinge' |
Все бинарные ученики являются ансамблями, обученными AdaboostM1 или GentleBoost . | 'exponential' |
Все бинарные ученики являются ансамблями, обученными LogitBoost . | 'binodeviance' |
Все бинарные ученики линейны или модели классификации ядер учеников логистической регрессии. Или, вы задаете, чтобы предсказать апостериорные вероятности класса установкой 'FitPosterior',true в fitcecoc . | 'quadratic' |
Чтобы проверять значение по умолчанию, используйте запись через точку, чтобы отобразить свойство BinaryLoss
обученной модели в командной строке.
Пример: 'BinaryLoss','binodeviance'
Типы данных: char
| string
| function_handle
'Decoding'
— Decoding'lossweighted'
(значение по умолчанию) | 'lossbased'
Схема Decoding, которая агрегировала бинарные потери, заданные как пара, разделенная запятой, состоящая из 'Decoding'
и 'lossweighted'
или 'lossbased'
. Для получения дополнительной информации смотрите Бинарную Потерю.
Пример: 'Decoding','lossbased'
'LossFun'
— Функция потерь'classiferror'
(значение по умолчанию) | указатель на функциюФункция потерь, заданная как пара, разделенная запятой, состоящая из 'LossFun'
и 'classiferror'
или указателя на функцию.
Задайте встроенную функцию 'classiferror'
. В этом случае функция потерь является ошибкой классификации, которая является пропорцией неправильно классифицированных наблюдений.
Или, задайте свою собственную функцию с помощью обозначения указателя на функцию.
Примите, что n = size(X,1)
является объемом выборки, и K
является количеством классов. Ваша функция должна иметь подпись lossvalue = lossfun(C,S,W,Cost)
, где:
Выходным аргументом lossvalue
является скаляр.
Вы задаете имя функции (lossfun
).
C
является n
-by-K
логическая матрица со строками, указывающими на класс, которому принадлежит соответствующее наблюдение. Порядок следования столбцов соответствует порядку класса в Mdl.ClassNames
.
Создайте C
установкой C(p,q) = 1
, если наблюдение p
находится в классе q
для каждой строки. Установите все другие элементы строки p
к 0
.
S
является n
-by-K
числовая матрица отрицаемых значений потерь для классов. Каждая строка соответствует наблюдению. Порядок следования столбцов соответствует порядку класса в Mdl.ClassNames
. Вход S
напоминает выходной аргумент NegLoss
resubPredict
.
W
является n
-by-1 числовой вектор весов наблюдения. Если вы передаете W
, программное обеспечение нормирует свои элементы, чтобы суммировать к 1
.
Cost
является K
-by-K
числовая матрица затрат misclassification. Например, Cost = ones(K) – eye(K)
задает стоимость 0 для правильной классификации и 1 для misclassification.
Задайте свою функцию с помощью 'LossFun',@lossfun
.
Типы данных: char
| string
| function_handle
Опции
Опции оценки[]
(значение по умолчанию) | массив структур, возвращенный statset
Опции оценки, заданные как пара, разделенная запятой, состоящая из 'Options'
и массива структур, возвращенного statset
.
Вызвать параллельные вычисления:
Вам нужна лицензия Parallel Computing Toolbox™.
Задайте 'Options',statset('UseParallel',true)
.
'Verbose'
— Уровень многословия0
(значение по умолчанию) | 1
Уровень многословия, заданный как пара, разделенная запятой, состоящая из 'Verbose'
и 0
или 1
. Verbose
управляет количеством диагностических сообщений, что программное обеспечение отображается в Командном окне.
Если Verbose
является 0
, то программное обеспечение не отображает диагностические сообщения. В противном случае программное обеспечение отображает диагностические сообщения.
Пример: 'Verbose',1
Типы данных: single | double
classification error является бинарной ошибочной мерой по классификации, которая имеет форму
где:
wj является весом для наблюдения j. Программное обеспечение повторно нормирует веса, чтобы суммировать к 1.
ej = 1, если предсказанный класс наблюдения j отличается от своего истинного класса, и 0 в противном случае.
Другими словами, ошибка классификации является пропорцией наблюдений, неправильно классифицированных классификатором.
binary loss является функцией класса и счета классификации, который определяет, как хорошо бинарный ученик классифицирует наблюдение в класс.
Предположим следующее:
mkj является элементом (k, j) проекта кодирования матричный M (то есть, код, соответствующий классу k бинарного ученика j).
sj является счетом бинарного ученика j для наблюдения.
g является бинарной функцией потерь.
предсказанный класс для наблюдения.
В loss-based decoding [Escalera и др.], класс, производящий минимальную сумму бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
В loss-weighted decoding [Escalera и др.], класс, производящий минимальное среднее значение бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
Allwein и др. предполагают, что взвешенное потерей декодирование улучшает точность классификации путем хранения значений потерь для всех классов в том же динамическом диапазоне.
Эта таблица суммирует поддерживаемые функции потерь, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j и g (yj, sj).
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери, таким образом, что потеря 0.5, когда yj = 0, и агрегировал использование среднего значения бинарных учеников [Allwein и др.].
Не путайте бинарную потерю с полной потерей классификации (заданный аргументом пары "имя-значение" 'LossFun'
функций объекта loss
и predict
), который измеряется, как хорошо классификатор ECOC выполняет в целом.
[1] Allwein, E., Р. Шапайр и И. Зингер. “Уменьшая мультикласс до двоичного файла: подход объединения для поля classifiers”. Журнал Исследования Машинного обучения. Издание 1, 2000, стр 113–141.
[2] Escalera, S., О. Пуджол и П. Радева. “На процессе декодирования в троичных выходных кодах с коррекцией ошибок”. Транзакции IEEE согласно Анализу Шаблона и Искусственному интеллекту. Издание 32, Выпуск 7, 2010, стр 120–134.
[3] Escalera, S., О. Пуджол и П. Радева. “Отделимость троичных кодов для разреженных проектов выходных кодов с коррекцией ошибок”. Шаблон Recogn. Издание 30, Выпуск 3, 2009, стр 285–297.
Чтобы запуститься параллельно, установите опцию 'UseParallel'
на true
.
Установите поле 'UseParallel'
структуры опций к true
с помощью statset
и задайте аргумент пары "имя-значение" 'Options'
в вызове этой функции.
Например: 'Options',statset('UseParallel',true)
Для получения дополнительной информации смотрите аргумент пары "имя-значение" 'Options'
.
Для более общей информации о параллельных вычислениях смотрите функции MATLAB Выполнения с Автоматической Параллельной Поддержкой (Parallel Computing Toolbox).
ClassificationECOC
| fitcecoc
| loss
| predict
| resubPredict
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.