kfoldEdge

Ребро классификации для наблюдений, не используемых для обучения

Описание

пример

e = kfoldEdge(CVMdl) возвращает перекрестные подтвержденные ребра классификации, полученные перекрестным подтвержденным, двоичным файлом, линейной моделью CVMdl классификации. Таким образом, для каждого сгиба, kfoldEdge оценивает ребро классификации для наблюдений, что оно протягивает, когда оно обучает использование всех других наблюдений.

e содержит ребро классификации для каждой силы регуляризации в линейных моделях классификации, которые включают CVMdl.

пример

e = kfoldEdge(CVMdl,Name,Value) дополнительные опции использования заданы одним или несколькими Name,Value парные аргументы. Например, укажите который сгибы использовать для вычисления ребра.

Входные параметры

развернуть все

Перекрестный подтвержденный, двоичный файл, линейная модель классификации в виде ClassificationPartitionedLinear объект модели. Можно создать ClassificationPartitionedLinear использование модели fitclinear и определение любой из перекрестной проверки, аргументов пары "имя-значение", например, CrossVal.

Чтобы получить оценки, kfoldEdge применяется, те же данные раньше перекрестный подтверждали линейную модель классификации (X и Y).

Аргументы name-value

Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Сверните индексы, чтобы использовать для предсказания классификационной оценки в виде разделенной запятой пары, состоящей из 'Folds' и числовой вектор из положительных целых чисел. Элементы Folds должен лежать в диапазоне от 1 через CVMdl.KFold.

Пример: 'Folds',[1 4 10]

Типы данных: single | double

Уровень агрегации ребра в виде разделенной запятой пары, состоящей из 'Mode' и 'average' или 'individual'.

ЗначениеОписание
'average'Возвращает ребра классификации, усредненные по всем сгибам
'individual'Возвращает ребра классификации для каждого сгиба

Пример: 'Mode','individual'

Выходные аргументы

развернуть все

Перекрестные подтвержденные ребра классификации, возвращенные в виде числа, вектора или матрицы.

Позвольте L будьте количеством сильных мест регуляризации в перекрестных подтвержденных моделях (то есть, L является numel(CVMdl.Trained{1}.Lambda)) и F будьте количеством сгибов (сохраненный в CVMdl.KFold).

  • Если Mode 'average', затем e 1 L вектор. e (j) среднее ребро классификации по всем сгибам перекрестной подтвержденной модели, которая использует силу регуляризации j.

  • В противном случае, e F- L матрица. e (iJ) ребро классификации для сгиба i из перекрестной подтвержденной модели, которая использует силу регуляризации j.

Оценить e, kfoldEdge использует данные, которые создали CVMdl (см. X и Y).

Примеры

развернуть все

Загрузите набор данных NLP.

load nlpdata

X разреженная матрица данных о предикторе и Y категориальный вектор из меток класса. В данных существует больше чем два класса.

Модели должны идентифицировать, являются ли подсчеты слов в веб-странице из документации Statistics and Machine Learning Toolbox™. Так, идентифицируйте метки, которые соответствуют веб-страницам документации Statistics and Machine Learning Toolbox™.

Ystats = Y == 'stats';

Перекрестный подтвердите двоичный файл, линейная модель классификации, которая может идентифицировать, являются ли подсчеты слов в веб-странице документации из документации Statistics and Machine Learning Toolbox™.

rng(1); % For reproducibility 
CVMdl = fitclinear(X,Ystats,'CrossVal','on');

CVMdl ClassificationPartitionedLinear модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно изменить количество сгибов с помощью 'KFold' аргумент пары "имя-значение".

Оцените среднее значение ребер из сгиба.

e = kfoldEdge(CVMdl)
e = 8.1243

В качестве альтернативы можно получить ребра на сгиб путем определения пары "имя-значение" 'Mode','individual' в kfoldEdge.

Один способ выполнить выбор признаков состоит в том, чтобы сравнить ребра k-сгиба от многоуровневых моделей. Базирующийся только на этом критерии, классификатор с самым высоким ребром является лучшим классификатором.

Загрузите набор данных NLP. Предварительно обработайте данные как в Оценочном Ребре Перекрестной проверки k-сгиба.

load nlpdata
Ystats = Y == 'stats';
X = X';

Создайте эти два набора данных:

  • fullX содержит все предикторы.

  • partX содержит 1/2 предикторов, выбранных наугад.

rng(1); % For reproducibility
p = size(X,1); % Number of predictors
halfPredIdx = randsample(p,ceil(0.5*p));
fullX = X;
partX = X(halfPredIdx,:);

Перекрестный подтвердите два двоичных файла, линейные модели классификации: тот, который использует все предикторы и тот, который использует половину предикторов. Оптимизируйте использование целевой функции SpaRSA и укажите, что наблюдения соответствуют столбцам.

CVMdl = fitclinear(fullX,Ystats,'CrossVal','on','Solver','sparsa',...
    'ObservationsIn','columns');
PCVMdl = fitclinear(partX,Ystats,'CrossVal','on','Solver','sparsa',...
    'ObservationsIn','columns');

CVMdl и PCVMdl ClassificationPartitionedLinear модели.

Оцените ребро k-сгиба для каждого классификатора.

fullEdge = kfoldEdge(CVMdl)
fullEdge = 16.5629
partEdge = kfoldEdge(PCVMdl)
partEdge = 13.9030

На основе ребер k-сгиба классификатор, который использует все предикторы, является лучшей моделью.

Чтобы определить хорошую силу штрафа лассо для линейной модели классификации, которая использует ученика логистической регрессии, сравните ребра k-сгиба.

Загрузите набор данных NLP. Предварительно обработайте данные как в Оценочном Ребре Перекрестной проверки k-сгиба.

load nlpdata
Ystats = Y == 'stats';
X = X';

Создайте набор 11 логарифмически распределенных сильных мест регуляризации от 10-8 через 101.

Lambda = logspace(-8,1,11);

Перекрестный подтвердите двоичный файл, линейная модель классификации использование 5-кратной перекрестной проверки, и это использует каждые из сильных мест регуляризации. Оптимизируйте использование целевой функции SpaRSA. Понизьте допуск на градиент целевой функции к 1e-8.

rng(10); % For reproducibility
CVMdl = fitclinear(X,Ystats,'ObservationsIn','columns','KFold',5,...
    'Learner','logistic','Solver','sparsa','Regularization','lasso',...
    'Lambda',Lambda,'GradientTolerance',1e-8)
CVMdl = 
  ClassificationPartitionedLinear
    CrossValidatedModel: 'Linear'
           ResponseName: 'Y'
        NumObservations: 31572
                  KFold: 5
              Partition: [1x1 cvpartition]
             ClassNames: [0 1]
         ScoreTransform: 'none'


  Properties, Methods

CVMdl ClassificationPartitionedLinear модель. Поскольку fitclinear реализует 5-кратную перекрестную проверку, CVMdl содержит 5 ClassificationLinear модели, которые программное обеспечение обучает на каждом сгибе.

Оцените ребра для каждого сгиба и силы регуляризации.

eFolds = kfoldEdge(CVMdl,'Mode','individual')
eFolds = 5×11

    0.9958    0.9958    0.9958    0.9958    0.9958    0.9924    0.9771    0.9138    0.8480    0.8127    0.8127
    0.9991    0.9991    0.9991    0.9991    0.9991    0.9938    0.9776    0.9173    0.8260    0.8128    0.8128
    0.9992    0.9992    0.9992    0.9992    0.9992    0.9941    0.9779    0.9176    0.8441    0.8128    0.8128
    0.9974    0.9974    0.9974    0.9974    0.9974    0.9931    0.9773    0.9090    0.8369    0.8130    0.8130
    0.9976    0.9976    0.9976    0.9976    0.9976    0.9942    0.9781    0.9188    0.8363    0.8127    0.8127

eFolds 5 11 матрица ребер. Строки соответствуют сгибам, и столбцы соответствуют сильным местам регуляризации в Lambda. Можно использовать eFolds идентифицировать сгибы плохо выполнения, то есть, необычно низкие ребра.

Оцените среднее ребро по всем сгибам для каждой силы регуляризации.

e = kfoldEdge(CVMdl)
e = 1×11

    0.9978    0.9978    0.9978    0.9978    0.9978    0.9935    0.9776    0.9153    0.8382    0.8128    0.8128

Определите, как хорошо модели делают вывод путем графического вывода средних значений 5-кратного ребра для каждой силы регуляризации. Идентифицируйте силу регуляризации, которая максимизирует 5-кратное ребро по сетке.

figure;
plot(log10(Lambda),log10(e),'-o')
[~, maxEIdx] = max(e);
maxLambda = Lambda(maxEIdx);
hold on
plot(log10(maxLambda),log10(e(maxEIdx)),'ro');
ylabel('log_{10} 5-fold edge')
xlabel('log_{10} Lambda')
legend('Edge','Max edge')
hold off

Figure contains an axes object. The axes object contains 2 objects of type line. These objects represent Edge, Max edge.

Несколько значений Lambda выражение столь же высокие ребра. Более высокие значения lambda приводят к разреженности переменного предиктора, которая является хорошим качеством классификатора.

Выберите силу регуляризации, которая происходит непосредственно перед тем, как ребро начинает уменьшаться.

LambdaFinal = Lambda(5);

Обучите линейную модель классификации использование целого набора данных и задайте силу регуляризации LambdaFinal.

MdlFinal = fitclinear(X,Ystats,'ObservationsIn','columns',...
    'Learner','logistic','Solver','sparsa','Regularization','lasso',...
    'Lambda',LambdaFinal);

Чтобы оценить метки для новых наблюдений, передайте MdlFinal и новые данные к predict.

Больше о

развернуть все

Введенный в R2016a