Классификационное ребро для наблюдений, не используемых для обучения
возвращает перекрестно проверенные ребра классификации, полученные с помощью перекрестно проверенной, исправляющей ошибки модели выходных кодов (ECOC), составленной из линейных моделей классификации e
= kfoldEdge(CVMdl
)CVMdl
. То есть для каждой складки kfoldEdge
оценивает ребро классификации для наблюдений, которые она выполняет, когда она обучается, используя все другие наблюдения.
e
содержит классификационное ребро для каждой регуляризационной прочности в линейных классификационных моделях, которые содержат CVMdl
.
использует дополнительные опции, заданные одним или несколькими e
= kfoldEdge(CVMdl
,Name,Value
)Name,Value
аргументы в виде пар. Для примера задайте схему декодирования, которая складывается, чтобы использовать для вычисления ребра или уровня подробностей.
CVMdl
- Перекрестная проверенная модель ECOC, состоящая из линейных классификационных моделейClassificationPartitionedLinearECOC
объект моделиПерекрестная проверенная модель ECOC, состоящая из линейных классификационных моделей, заданных как ClassificationPartitionedLinearECOC
объект модели. Можно создать ClassificationPartitionedLinearECOC
модель с использованием fitcecoc
и:
Указание любого из аргументов пары "имя-значение", например CrossVal
Установка аргумента пары "имя-значение" Learners
на 'linear'
или шаблон линейной классификационной модели, возвращенный templateLinear
Для получения оценок kfoldEdge применяет те же данные, что и для перекрестной проверки модели ECOC (X
и Y
).
Задайте необязательные разделенные разделенными запятой парами Name,Value
аргументы. Name
- имя аргумента и Value
- соответствующее значение. Name
должны находиться внутри кавычек. Можно задать несколько аргументов в виде пар имен и значений в любом порядке Name1,Value1,...,NameN,ValueN
.
'BinaryLoss'
- Бинарная функция потерь для учащихся'hamming'
| 'linear'
| 'logit'
| 'exponential'
| 'binodeviance'
| 'hinge'
| 'quadratic'
| указатель на функциюДвоичная функция потерь учащегося, заданная как разделенная разделенными запятой парами, состоящая из 'BinaryLoss'
и встроенное имя функции потери или указатель на функцию.
Эта таблица содержит имена и описания встроенных функций, где yj является меткой класса для конкретного двоичного ученика (в наборе {-1,1,0}), sj является счетом для j наблюдений и g (yj, sj) является формулой двоичных потерь.
Значение | Описание | Счет | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | log [1 + exp (-2 yjsj) ]/[ 2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (- yjsj )/2 |
'hamming' | Хэмминг | [0,1] или (- ∞, ∞) | [1 - знак (yjsj) ]/2 |
'hinge' | Стержень | (–∞,∞) | макс (0,1 - yjsj )/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (- yjsj) ]/[ 2log (2)] |
'quadratic' | Квадратный | [0,1] | [1 – yj (2 sj – 1)]2/2 |
Программа нормализует двоичные потери так, что потеря составляет 0,5 при yj = 0. Кроме того, программное обеспечение вычисляет средние двоичные потери для каждого класса.
Для пользовательской функции двоичных потерь, например customFunction
, задайте его указатель на функцию 'BinaryLoss',@customFunction
.
customFunction
должна иметь эту форму
bLoss = customFunction(M,s)
M
- K матрица кодирования L, сохраненная в Mdl.CodingMatrix
.
s
- вектор-строка L 1 байта классификационных баллов.
bLoss
- классификационные потери. Этот скаляр агрегирует двоичные потери для каждого учащегося в конкретном классе. Для примера можно использовать среднее значение двоичных потерь для агрегирования потерь по учащимся для каждого класса.
K - количество классов.
L - это количество двоичных учащихся.
Для примера передачи пользовательской функции двоичных потерь смотрите Предсказание меток теста-образца модели ECOC с помощью Пользовательской функции двоичных потерь.
По умолчанию, если все двоичные ученики являются линейными моделями классификации с помощью:
SVM, затем BinaryLoss
является 'hinge'
Логистическая регрессия, затем BinaryLoss
является 'quadratic'
Пример: 'BinaryLoss','binodeviance'
Типы данных: char
| string
| function_handle
'Decoding'
- Схема декодирования'lossweighted'
(по умолчанию) | 'lossbased'
Схема декодирования, которая агрегирует двоичные потери, заданные как разделенная разделенными запятой парами, состоящая из 'Decoding'
и 'lossweighted'
или 'lossbased'
. Для получения дополнительной информации смотрите Двоичные потери.
Пример: 'Decoding','lossbased'
'Folds'
- Складывайте индексы для использования в классификационно-балльном предсказании1:CVMdl.KFold
(по умолчанию) | числовой вектор положительных целых чиселИндексы сгиба для использования в классификационно-оценочном предсказании, заданные как разделенная разделенными запятой парами, состоящая из 'Folds'
и числовой вектор положительных целых чисел. Элементы Folds
должен варьироваться от 1
через CVMdl.KFold
.
Пример: 'Folds',[1 4 10]
Типы данных: single
| double
'Mode'
- Уровень агрегации ребер'average'
(по умолчанию) | 'individual'
Уровень агрегации ребер, заданный как разделенная разделенными запятой парами, состоящая из 'Mode'
и 'average'
или 'individual'
.
Значение | Описание |
---|---|
'average' | Возвраты классификации ребер усредненные по всем складкам |
'individual' | Возвращает ребра классификации для каждого сгиба |
Пример: 'Mode','individual'
'Options'
- опции оценки[]
(по умолчанию) | массив структур, возвращенный statset
Опции оценки, заданные как разделенная разделенными запятой парами, состоящая из 'Options'
и массив структур, возвращенный statset
.
Чтобы вызвать параллельные вычисления:
Вам нужна лицензия Parallel Computing Toolbox™.
Задайте 'Options',statset('UseParallel',true)
.
'Verbose'
- Уровень подробностей0
(по умолчанию) | 1
Уровень подробностей, заданный как разделенная разделенными запятой парами, состоящая из 'Verbose'
и 0
или 1
. Verbose
управляет количеством диагностических сообщений, которые программное обеспечение отображений в Командном окне.
Если Verbose
является 0
тогда программа не отображает диагностические сообщения. В противном случае программа отображает диагностические сообщения.
Пример: 'Verbose',1
Типы данных: single
| double
e
- Перекрестные проверенные ребра классификацииПерекрестно проверенные ребра классификации, возвращенные как числовой скаляр, вектор или матрица.
Позвольте L
быть количеством степеней регуляризации в перекрестно проверенных моделях (то есть L есть numel(CVMdl.Trained{1}.BinaryLearners{1}.Lambda)
) и F
количество складок (сохранено в CVMdl.KFold
).
Если Mode
является 'average'
, затем e
является 1-байт- L
вектор. e
- среднее ребро классификации по всем складкам перекрестно проверенной модели, которая использует силу регуляризации (j
)j
.
В противном случае e
является F
-by- L
матрица. e
- классификационное ребро для сгиба (i
, j
)i
модели с перекрестной проверкой, которая использует силу регуляризации j
.
Загрузите набор данных NLP.
load nlpdata
X
является разреженной матрицей данных предиктора, и Y
является категориальным вектором меток классов.
Для простоты используйте метку 'others' для всех наблюдений в Y
которые не 'simulink'
, 'dsp'
, или 'comm'
.
Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others';
Перекрестная проверка многоклассовой, линейной классификационной модели.
rng(1); % For reproducibility CVMdl = fitcecoc(X,Y,'Learner','linear','CrossVal','on');
CVMdl
является ClassificationPartitionedLinearECOC
модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную валидацию. Вы можете изменить количество складок, используя 'KFold'
аргумент пары "имя-значение".
Оцените среднее значение наружных ребер.
e = kfoldEdge(CVMdl)
e = 0.7232
Кроме того, можно получить ребра в относительных единицах путем определения пары "имя-значение" 'Mode','individual'
в kfoldEdge
.
Один из способов выполнения выбора признаков - сравнение ребер k-складки из нескольких моделей. Исходя исключительно из этого критерия, классификатор с самым высоким ребром является лучшим классификатором.
Загрузите набор данных NLP. Предварительно обработайте данные как в Estimate k-Fold Cross-Validation Edge, и ориентируйте данные предиктора так, чтобы наблюдения соответствовали столбцам.
load nlpdata Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others'; X = X';
Создайте эти два набора данных:
fullX
содержит все предикторы.
partX
содержит 1/2 предикторов, выбранных случайным образом.
rng(1); % For reproducibility p = size(X,1); % Number of predictors halfPredIdx = randsample(p,ceil(0.5*p)); fullX = X; partX = X(halfPredIdx,:);
Создайте шаблон модели линейной классификации, который задает оптимизацию целевой функции с помощью SpaRSA.
t = templateLinear('Solver','sparsa');
Перекрестная проверка двух моделей ECOC, состоящих из двоичных, линейных классификационных моделей: одной, которая использует все предикторы, и одной, которая использует половину предикторов. Указать, что наблюдения соответствуют столбцам.
CVMdl = fitcecoc(fullX,Y,'Learners',t,'CrossVal','on',... 'ObservationsIn','columns'); PCVMdl = fitcecoc(partX,Y,'Learners',t,'CrossVal','on',... 'ObservationsIn','columns');
CVMdl
и PCVMdl
являются ClassificationPartitionedLinearECOC
модели.
Оцените ребро k-складки для каждого классификатора.
fullEdge = kfoldEdge(CVMdl)
fullEdge = 0.3090
partEdge = kfoldEdge(PCVMdl)
partEdge = 0.2617
Основанный на ребрах k-складки, классификатор, который использует все предикторы, является лучшей моделью.
Чтобы определить хорошую силу лассо-штрафа для линейной модели классификации, которая использует учителя логистической регрессии, сравните ребра k-складки.
Загрузите набор данных NLP. Предварительно обработайте данные как в выборе признаков» Использование ребер.
load nlpdata Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others'; X = X';
Создайте набор из 8 логарифмически разнесенных сильных сторон регуляризации через .
Lambda = logspace(-8,1,8);
Создайте шаблон модели линейной классификации, который задает использование логистической регрессии с штрафом лассо, используйте каждую из сильных сторон регуляризации, оптимизируйте целевую функцию с помощью SpaRSA и уменьшите допуск на градиент целевой функции до 1e-8
.
t = templateLinear('Learner','logistic','Solver','sparsa',... 'Regularization','lasso','Lambda',Lambda,'GradientTolerance',1e-8);
Перекрестная проверка модели ECOC, составленной из двоичных, линейных классификационных моделей, с помощью 5-кратной перекрестной валидации и той, что
rng(10) % For reproducibility CVMdl = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns','KFold',5)
CVMdl = ClassificationPartitionedLinearECOC CrossValidatedModel: 'LinearECOC' ResponseName: 'Y' NumObservations: 31572 KFold: 5 Partition: [1x1 cvpartition] ClassNames: [comm dsp simulink others] ScoreTransform: 'none' Properties, Methods
CVMdl
является ClassificationPartitionedLinearECOC
модель.
Оцените ребра для каждой складки и прочность на регуляризацию.
eFolds = kfoldEdge(CVMdl,'Mode','individual')
eFolds = 5×8
0.5515 0.5513 0.5516 0.5499 0.4939 0.2945 0.1033 0.0853
0.5252 0.5254 0.5259 0.5263 0.4769 0.2947 0.1058 0.0866
0.5269 0.5279 0.5297 0.5293 0.4771 0.2899 0.1031 0.0867
0.5397 0.5407 0.5410 0.5372 0.4810 0.2906 0.1016 0.0856
0.5506 0.5557 0.5584 0.5581 0.4942 0.2936 0.1020 0.0849
eFolds
является матрицей ребер 5 на 8. Строки соответствуют складкам, а столбцы - сильным сторонам регуляризации в Lambda
. Можно использовать eFolds
идентифицировать плохо работающие складки, то есть необычно низкие ребра.
Оцените среднее ребро по всем складкам для каждой силы регуляризации.
e = kfoldEdge(CVMdl)
e = 1×8
0.5388 0.5402 0.5413 0.5402 0.4846 0.2927 0.1031 0.0858
Определите, насколько хорошо модели обобщаются, путем построения средних значений 5-кратного ребра для каждой силы регуляризации. Идентифицируйте регуляризационную прочность, которая максимизирует 5-кратное ребро по сетке.
figure plot(log10(Lambda),log10(e),'-o') [~, maxEIdx] = max(e); maxLambda = Lambda(maxEIdx); hold on plot(log10(maxLambda),log10(e(maxEIdx)),'ro') ylabel('log_{10} 5-fold edge') xlabel('log_{10} Lambda') legend('Edge','Max edge') hold off
Несколько значений Lambda
выход аналогично высоких ребер. Большие значения силы регуляризации приводят к переменной разреженности предиктора, которая является хорошим качеством классификатора.
Выберите силу регуляризации, которая происходит непосредственно перед началом уменьшения ребра.
LambdaFinal = Lambda(4);
Обучите модель ECOC, состоящую из линейной классификационной модели, используя весь набор данных и задайте силу регуляризации LambdaFinal
.
t = templateLinear('Learner','logistic','Solver','sparsa',... 'Regularization','lasso','Lambda',LambdaFinal,'GradientTolerance',1e-8); MdlFinal = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns');
Чтобы оценить метки для новых наблюдений, передайте MdlFinal
и новые данные для predict
.
binary loss является функцией класса и классификационной оценки, которая определяет, насколько хорошо двоичный ученик классифицирует наблюдение в класс.
Предположим следующее:
mkj является элементом (k, j) матрицы разработки кодирования M (то есть кода, соответствующего k классов двоичных j обучающегося).
sj - этот счет двоичных j учащихся для наблюдения.
g является функцией двоичных потерь.
- предсказанный класс для наблюдения.
В loss-based decoding [Escalera et al.] класс, производящий минимальную сумму двоичных потерь по сравнению с двоичными учениками, определяет предсказанный класс наблюдения, то есть
В loss-weighted decoding [Escalera et al.] класс, производящий минимальное среднее значение двоичных потерь по сравнению с двоичными учениками, определяет предсказанный класс наблюдения, то есть
Allwein et al. предположим, что утраченное декодирование повышает точность классификации путем сохранения значений потерь для всех классов в одной динамической области значений.
В этой таблице приведены поддерживаемые функции потерь, где yj является меткой класса для конкретного двоичного обучающегося (в наборе {-1,1,0}), sj является счетом для j наблюдений и g (yj, sj).
Значение | Описание | Счет | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | log [1 + exp (-2 yjsj) ]/[ 2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (- yjsj )/2 |
'hamming' | Хэмминг | [0,1] или (- ∞, ∞) | [1 - знак (yjsj) ]/2 |
'hinge' | Стержень | (–∞,∞) | макс (0,1 - yjsj )/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (- yjsj) ]/[ 2log (2)] |
'quadratic' | Квадратный | [0,1] | [1 – yj (2 sj – 1)]2/2 |
Программа нормализует двоичные потери таким образом, что потеря составляет 0,5 при yj = 0, и агрегирует, используя среднее значение двоичных учащихся [Allwein et al.].
Не путайте двоичные потери с общими классификационными потерями (заданными 'LossFun'
Аргумент пары "имя-значение" из loss
и predict
функции объекта), который измеряет, насколько хорошо классификатор ECOC работает в целом.
Это classification edge - средневзвешенное значение классификационных полей.
Один из способов выбрать один из нескольких классификаторов, например, для выбора признаков, - выбрать классификатор, который дает наибольшее ребро.
Для каждого наблюдения classification margin является различием между отрицательной потерей для истинного класса и максимальной отрицательной потерей среди ложных классов. Если поля находятся в одной шкале, то они служат классификационной доверительной мерой. Среди нескольких классификаторов лучше те, которые дают большую маржу.
[1] Allwein, E., R. Schapire, and Y. Singer. «Сокращение многоклассового числа до двоичного: Унифицирующий подход к маржинальным classifiers». Журнал исследований машинного обучения. Том 1, 2000, стр. 113-141.
[2] Эскалера, С., О. Пужоль, и П. Радева. «О процессе декодирования в троичных выходных кодах с исправлением ошибок». Транзакции IEEE по шаблонному анализу и машинному анализу. Том 32, Выпуск 7, 2010, стр. 120-134.
[3] Эскалера, С., О. Пужоль, и П. Радева. «Разделяемость троичных кодов для разреженных проектов выходных кодов с исправлением ошибок». Pattern Recogn (Повторный вызов шаблона). Том 30, Выпуск 3, 2009, стр. 285-297.
Чтобы выполнять параллельно, задайте 'Options'
аргумент имя-значение в вызове этой функции и установите 'UseParallel'
поле структуры опций для true
использование statset
.
Для примера: 'Options',statset('UseParallel',true)
Для получения дополнительной информации о параллельных вычислениях смотрите Запуск функций MATLAB с автоматической поддержкой параллельных вычислений (Parallel Computing Toolbox).
ClassificationECOC
| ClassificationLinear
| ClassificationPartitionedLinearECOC
| edge
| fitcecoc
| kfoldMargin
| kfoldPredict
| statset
У вас есть измененная версия этого примера. Вы хотите открыть этот пример с вашими правками?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.