Ребро классификации для наблюдений, не используемых в обучении
возвращает перекрестные подтвержденные ребра классификации, полученные перекрестным подтвержденным, двоичным файлом, линейной моделью e
= kfoldEdge(CVMdl
)CVMdl
классификации. Таким образом, для каждого сгиба,
kfoldEdge
оценивает ребро классификации для наблюдений, что оно протягивает, когда оно обучает использование всех других наблюдений.
e
содержит ребро классификации для каждой силы регуляризации в линейных моделях классификации, которые включают CVMdl
.
дополнительные опции использования заданы одним или несколькими e
= kfoldEdge(CVMdl
,Name,Value
)Name,Value
парные аргументы. Например, укажите который сгибы использовать в вычислении ребра.
CVMdl
— Перекрестный подтвержденный, двоичный файл, линейная модель классификацииClassificationPartitionedLinear
объект моделиПерекрестный подтвержденный, двоичный файл, линейная модель классификации, заданная как ClassificationPartitionedLinear
объект модели. Можно создать ClassificationPartitionedLinear
модель с помощью fitclinear
и определение любой из перекрестной проверки, аргументов пары "имя-значение", например, CrossVal
.
Чтобы получить оценки, kfoldEdge применяется, те же данные раньше перекрестный подтверждали линейную модель классификации (X
и Y
).
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
'Folds'
— Сверните индексы, чтобы использовать в прогнозе счета классификации1:CVMdl.KFold
(значение по умолчанию) | числовой вектор положительных целых чиселСверните индексы, чтобы использовать в прогнозе счета классификации, заданном как разделенная запятой пара, состоящая из 'Folds'
и числовой вектор положительных целых чисел. Элементы Folds
должен лежать в диапазоне от 1
через CVMdl.KFold
.
Пример: 'Folds',[1 4 10]
Типы данных: single
| double
'Mode'
— Уровень агрегации ребра'average'
(значение по умолчанию) | 'individual'
Уровень агрегации ребра, заданный как разделенная запятой пара, состоящая из 'Mode'
и 'average'
или 'individual'
.
Значение | Описание |
---|---|
'average' | Возвращает ребра классификации, усредненные по всем сгибам |
'individual' | Возвращает ребра классификации для каждого сгиба |
Пример: 'Mode','individual'
e
— Перекрестные подтвержденные ребра классификацииПерекрестные подтвержденные ребра классификации, возвращенные в виде числа, вектора или матрицы.
Позвольте L
будьте количеством сильных мест регуляризации в перекрестных подтвержденных моделях (то есть, L является numel(CVMdl.Trained{1}.Lambda)
) и F
будьте количеством сгибов (сохраненный в CVMdl.KFold
).
Если Mode
'average'
, затем e
1 L
вектор. e (
среднее ребро классификации по всем сгибам перекрестной подтвержденной модели, которая использует силу регуляризации j
)j
.
В противном случае, e
F
- L
матрица. e (
ребро классификации для сгиба i
J
)i
из перекрестной подтвержденной модели, которая использует силу регуляризации j
.
Оценить e
, kfoldEdge
использует данные, которые создали CVMdl
(см. X
и Y
).
Загрузите набор данных NLP.
load nlpdata
X
разреженная матрица данных о предикторе и Y
категориальный вектор меток класса. В данных существует больше чем два класса.
Модели должны идентифицировать, являются ли подсчеты слов в веб-странице из документации Statistics and Machine Learning Toolbox™. Так, идентифицируйте метки, которые соответствуют веб-страницам документации Statistics and Machine Learning Toolbox™.
Ystats = Y == 'stats';
Перекрестный подтвердите двоичный файл, линейная модель классификации, которая может идентифицировать, являются ли подсчеты слов в веб-странице документации из документации Statistics and Machine Learning Toolbox™.
rng(1); % For reproducibility CVMdl = fitclinear(X,Ystats,'CrossVal','on');
CVMdl
ClassificationPartitionedLinear
модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно изменить количество сгибов с помощью 'KFold'
аргумент пары "имя-значение".
Оцените среднее значение ребер из сгиба.
e = kfoldEdge(CVMdl)
e = 8.1243
В качестве альтернативы можно получить ребра на сгиб путем определения пары "имя-значение" 'Mode','individual'
в kfoldEdge
.
Один способ выполнить выбор признаков состоит в том, чтобы сравнить ребра k-сгиба от многоуровневых моделей. Базирующийся только на этом критерии, классификатор с самым высоким ребром является лучшим классификатором.
Загрузите набор данных NLP. Предварительно обработайте данные как в Оценочном Ребре Перекрестной проверки k-сгиба.
load nlpdata Ystats = Y == 'stats'; X = X';
Создайте эти два набора данных:
fullX
содержит все предикторы.
partX
содержит 1/2 предикторов, выбранных наугад.
rng(1); % For reproducibility p = size(X,1); % Number of predictors halfPredIdx = randsample(p,ceil(0.5*p)); fullX = X; partX = X(halfPredIdx,:);
Перекрестный подтвердите два двоичных файла, линейные модели классификации: тот, который использует все предикторы и тот, который использует половину предикторов. Оптимизируйте использование целевой функции SpaRSA и укажите, что наблюдения соответствуют столбцам.
CVMdl = fitclinear(fullX,Ystats,'CrossVal','on','Solver','sparsa',... 'ObservationsIn','columns'); PCVMdl = fitclinear(partX,Ystats,'CrossVal','on','Solver','sparsa',... 'ObservationsIn','columns');
CVMdl
и PCVMdl
ClassificationPartitionedLinear
модели.
Оцените ребро k-сгиба для каждого классификатора.
fullEdge = kfoldEdge(CVMdl)
fullEdge = 16.5629
partEdge = kfoldEdge(PCVMdl)
partEdge = 13.9030
На основе ребер k-сгиба классификатор, который использует все предикторы, является лучшей моделью.
Чтобы определить хорошую силу штрафа лассо для линейной модели классификации, которая использует ученика логистической регрессии, сравните ребра k-сгиба.
Загрузите набор данных NLP. Предварительно обработайте данные как в Оценочном Ребре Перекрестной проверки k-сгиба.
load nlpdata Ystats = Y == 'stats'; X = X';
Создайте набор 11 логарифмически распределенных сильных мест регуляризации от через .
Lambda = logspace(-8,1,11);
Перекрестный подтвердите двоичный файл, линейная модель классификации использование 5-кратной перекрестной проверки, и это использует каждые из сильных мест регуляризации. Оптимизируйте использование целевой функции SpaRSA. Понизьте допуск на градиент целевой функции к 1e-8
.
rng(10); % For reproducibility CVMdl = fitclinear(X,Ystats,'ObservationsIn','columns','KFold',5,... 'Learner','logistic','Solver','sparsa','Regularization','lasso',... 'Lambda',Lambda,'GradientTolerance',1e-8)
CVMdl = classreg.learning.partition.ClassificationPartitionedLinear CrossValidatedModel: 'Linear' ResponseName: 'Y' NumObservations: 31572 KFold: 5 Partition: [1x1 cvpartition] ClassNames: [0 1] ScoreTransform: 'none' Properties, Methods
CVMdl
ClassificationPartitionedLinear
модель. Поскольку fitclinear
реализует 5-кратную перекрестную проверку, CVMdl
содержит 5 ClassificationLinear
модели, которые программное обеспечение обучает на каждом сгибе.
Оцените ребра для каждого сгиба и силы регуляризации.
eFolds = kfoldEdge(CVMdl,'Mode','individual')
eFolds = 5×11
0.9958 0.9958 0.9958 0.9958 0.9958 0.9924 0.9768 0.9242 0.8444 0.8127 0.8127
0.9991 0.9991 0.9991 0.9991 0.9991 0.9939 0.9781 0.9200 0.8262 0.8128 0.8128
0.9992 0.9992 0.9992 0.9992 0.9992 0.9942 0.9779 0.9090 0.8254 0.8128 0.8128
0.9974 0.9974 0.9974 0.9974 0.9974 0.9931 0.9772 0.9188 0.8487 0.8130 0.8130
0.9977 0.9977 0.9977 0.9977 0.9977 0.9942 0.9781 0.9179 0.8377 0.8127 0.8127
eFolds
5 11 матрица ребер. Строки соответствуют сгибам, и столбцы соответствуют сильным местам регуляризации в Lambda
. Можно использовать eFolds
идентифицировать сгибы плохо выполнения, то есть, необычно низкие ребра.
Оцените среднее ребро по всем сгибам для каждой силы регуляризации.
e = kfoldEdge(CVMdl)
e = 1×11
0.9978 0.9978 0.9978 0.9978 0.9978 0.9936 0.9776 0.9180 0.8365 0.8128 0.8128
Определите, как хорошо модели делают вывод путем графического вывода средних значений 5-кратного ребра для каждой силы регуляризации. Идентифицируйте силу регуляризации, которая максимизирует 5-кратное ребро по сетке.
figure; plot(log10(Lambda),log10(e),'-o') [~, maxEIdx] = max(e); maxLambda = Lambda(maxEIdx); hold on plot(log10(maxLambda),log10(e(maxEIdx)),'ro'); ylabel('log_{10} 5-fold edge') xlabel('log_{10} Lambda') legend('Edge','Max edge') hold off
Несколько значений Lambda
урожай столь же высокие ребра. Более высокие значения lambda приводят к разреженности переменного предиктора, которая является хорошим качеством классификатора.
Выберите силу регуляризации, которая происходит непосредственно перед тем, как ребро начинает уменьшаться.
LambdaFinal = Lambda(5);
Обучите линейную модель классификации использование целого набора данных и задайте силу регуляризации LambdaFinal
.
MdlFinal = fitclinear(X,Ystats,'ObservationsIn','columns',... 'Learner','logistic','Solver','sparsa','Regularization','lasso',... 'Lambda',LambdaFinal);
Чтобы оценить метки для новых наблюдений, передайте MdlFinal
и новые данные к predict
.
classification edge является взвешенным средним classification margins.
Один способ выбрать среди нескольких классификаторов, например, выполнить выбор признаков, состоит в том, чтобы выбрать классификатор, который дает к самому большому ребру.
classification margin для бинарной классификации, для каждого наблюдения, различия между счетом классификации к истинному классу и счетом классификации к ложному классу.
Программное обеспечение задает поле классификации для бинарной классификации как
x является наблюдением. Если истинная метка x является положительным классом, то y равняется 1, и –1 в противном случае. f (x) является счетом классификации положительных классов к наблюдению x. Поле классификации обычно задается как m = y f (x).
Если поля находятся по той же шкале, то они служат мерой по уверенности классификации. Среди нескольких классификаторов те, которые дают к большим полям, лучше.
Для линейных моделей классификации, необработанного classification score для классификации наблюдения x, вектор-строка, в положительный класс задан
Для модели с силой регуляризации j, предполагаемый вектор-столбец коэффициентов (свойство Beta(:,j)
модели) и предполагаемое, скалярное смещение (свойство
Bias(j)
модели).
Необработанный счет классификации к классификации x в отрицательный класс является –f (x). Программное обеспечение классифицирует наблюдения в класс, который дает к положительному счету.
Если линейная модель классификации состоит из учеников логистической регрессии, то программное обеспечение применяет 'logit'
выиграйте преобразование к необработанным баллам классификации (см. ScoreTransform
).
ClassificationLinear
| ClassificationPartitionedLinear
| edge
| kfoldMargin
| kfoldPredict
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.