kfoldEdge

Ребро классификации для наблюдений, не используемых для обучения

Синтаксис

e = kfoldEdge(CVMdl)
e = kfoldEdge(CVMdl,Name,Value)

Описание

пример

e = kfoldEdge(CVMdl) возвращает перекрестные подтвержденные ребра классификации, полученные перекрестным подтвержденным, модель выходных кодов с коррекцией ошибок (ECOC), состоявшая из линейных моделей CVMdl классификации. Таким образом, для каждого сгиба kfoldEdge оценивает ребро классификации для наблюдений, что это протягивает, когда это обучает использование всех других наблюдений.

e содержит ребро классификации для каждой силы регуляризации в линейных моделях классификации, которые включают CVMdl.

пример

e = kfoldEdge(CVMdl,Name,Value) дополнительные опции использования заданы одним или несколькими аргументами пары Name,Value. Например, задайте схему декодирования, которая сворачивается, чтобы использовать для вычисления ребра или уровня многословия.

Входные параметры

развернуть все

Перекрестный подтвержденный, модель ECOC, состоявшая из линейных моделей классификации, заданных как объект модели ClassificationPartitionedLinearECOC. Можно создать модель ClassificationPartitionedLinearECOC с помощью fitcecoc и:

  1. Задавая любую из перекрестной проверки, аргументов пары "имя-значение", например, CrossVal

  2. Установка аргумента пары "имя-значение" Learners 'linear' или линейному шаблону модели классификации, возвращенному templateLinear

Чтобы получить оценки, kfoldEdge применяется, те же данные раньше перекрестный подтверждали модель ECOC (X и Y).

Аргументы в виде пар имя-значение

Укажите необязательные аргументы в виде пар ""имя, значение"", разделенных запятыми. Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Бинарная функция потерь ученика, заданная как пара, разделенная запятой, состоящая из 'BinaryLoss' и встроенного имени функции потерь или указателя на функцию.

  • Эта таблица содержит имена и описания встроенных функций, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j, и g (yj, sj) является бинарной формулой потерь.

    ЗначениеОписаниеОбласть счетаg (yj, sj)
    'binodeviance'Биномиальное отклонение(–∞,∞)журнал [1 + exp (–2yjsj)] / [2log (2)]
    'exponential'Экспоненциал(–∞,∞)exp (–yjsj)/2
    'hamming'Хэмминг[0,1] или (– ∞, ∞)[1 – знак (yjsj)]/2
    'hinge'Стержень(–∞,∞)макс. (0,1 – yjsj)/2
    'linear'Линейный(–∞,∞)(1 – yjsj)/2
    'logit'Логистический(–∞,∞)журнал [1 + exp (–yjsj)] / [2log (2)]
    'quadratic'Квадратичный[0,1][1 – yj (2sj – 1)] 2/2

    Программное обеспечение нормирует бинарные потери, таким образом, что потеря 0.5 когда yj = 0. Кроме того, программное обеспечение вычисляет среднюю бинарную потерю для каждого класса.

  • Для пользовательской бинарной функции потерь, например, customFunction, задают его указатель на функцию 'BinaryLoss',@customFunction.

    customFunction должен иметь эту форму

    bLoss = customFunction(M,s)
    где:

    • M является K-by-L кодирующий матрицу, сохраненную в Mdl.CodingMatrix.

    • s является 1 L вектором - строкой из очков классификации.

    • bLoss является потерей классификации. Этот скаляр агрегировал бинарные потери для каждого ученика в конкретном классе. Например, можно использовать среднюю бинарную потерю, чтобы агрегировать потерю по ученикам для каждого класса.

    • K является количеством классов.

    • L является количеством бинарных учеников.

    Для примера передачи пользовательской бинарной функции потерь смотрите, Предсказывают Демонстрационные Тестом Метки Модели ECOC Используя Пользовательскую Бинарную Функцию потерь.

По умолчанию, если все бинарные ученики являются линейным использованием моделей классификации:

  • SVM, затем BinaryLoss является 'hinge'

  • Логистическая регрессия, затем BinaryLoss является 'quadratic'

Пример: 'BinaryLoss','binodeviance'

Типы данных: char | string | function_handle

Схема Decoding, которая агрегировала бинарные потери, заданные как пара, разделенная запятой, состоящая из 'Decoding' и 'lossweighted' или 'lossbased'. Для получения дополнительной информации смотрите Бинарную Потерю.

Пример: 'Decoding','lossbased'

Сверните индексы, чтобы использовать для прогноза счета классификации, заданного как пара, разделенная запятой, состоящая из 'Folds' и числовой вектор положительных целых чисел. Элементы Folds должны колебаться от 1 до CVMdl.KFold.

Пример: 'Folds',[1 4 10]

Типы данных: single | double

Уровень агрегации ребра, заданный как пара, разделенная запятой, состоящая из 'Mode' и 'average' или 'individual'.

ЗначениеОписание
'average'Возвращает ребра классификации, усредненные по всем сгибам
'individual'Возвращает ребра классификации для каждого сгиба

Пример: 'Mode','individual'

Опции оценки, заданные как пара, разделенная запятой, состоящая из 'Options' и массива структур, возвращенного statset.

Вызвать параллельные вычисления:

  • Вам нужна лицензия Parallel Computing Toolbox™.

  • Задайте 'Options',statset('UseParallel',true).

Уровень многословия, заданный как пара, разделенная запятой, состоящая из 'Verbose' и 0 или 1. Verbose управляет количеством диагностических сообщений, что программное обеспечение отображается в Командном окне.

Если Verbose является 0, то программное обеспечение не отображает диагностические сообщения. В противном случае программное обеспечение отображает диагностические сообщения.

Пример: 'Verbose',1

Типы данных: single | double

Выходные аргументы

развернуть все

Перекрестные подтвержденные ребра классификации, возвращенные в виде числа, вектора или матрицы.

Позвольте L быть количеством сильных мест регуляризации в перекрестных подтвержденных моделях (то есть, L является numel(CVMdl.Trained{1}.BinaryLearners{1}.Lambda)), и F быть количеством сгибов (сохраненный в CVMdl.KFold).

  • Если Mode является 'average', то e является 1 L вектором. e(j) является средним ребром классификации по всем сгибам перекрестной подтвержденной модели, которая использует силу регуляризации j.

  • В противном случае e является F-by-L матрица. e(i,j) является ребром классификации для сгиба i перекрестной подтвержденной модели, которая использует силу регуляризации j.

Примеры

развернуть все

Загрузите набор данных NLP.

load nlpdata

X является разреженной матрицей данных о предикторе, и Y является категориальным вектором меток класса.

Для простоты используйте метку 'другие' для всех наблюдений в Y, которые не являются 'simulink', 'dsp' или 'comm'.

Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others';

Перекрестный подтвердите мультикласс, линейную модель классификации.

rng(1); % For reproducibility 
CVMdl = fitcecoc(X,Y,'Learner','linear','CrossVal','on');

CVMdl является моделью ClassificationPartitionedLinearECOC. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно изменить количество сгибов с помощью аргумента пары "имя-значение" 'KFold'.

Оцените среднее значение ребер из сгиба.

e = kfoldEdge(CVMdl)
e = 0.7232

Также можно получить ребра на сгиб путем определения пары "имя-значение" 'Mode','individual' в kfoldEdge.

Один способ выполнить выбор функции состоит в том, чтобы сравнить ребра k-сгиба от многоуровневых моделей. Базирующийся только на этом критерии, классификатор с самым высоким ребром является лучшим классификатором.

Загрузите набор данных NLP. Предварительно обработайте данные как в Оценочном Ребре Перекрестной проверки k-сгиба и ориентируйте данные о предикторе так, чтобы наблюдения соответствовали столбцам.

load nlpdata
Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others';
X = X';

Создайте эти два набора данных:

  • fullX содержит все предикторы.

  • partX содержит 1/2 предикторов, выбранных наугад.

rng(1); % For reproducibility
p = size(X,1); % Number of predictors
halfPredIdx = randsample(p,ceil(0.5*p));
fullX = X;
partX = X(halfPredIdx,:);

Создайте линейный шаблон модели классификации, который задает, чтобы оптимизировать использование целевой функции SpaRSA.

t = templateLinear('Solver','sparsa');

Перекрестный подтвердите две модели ECOC, состоявшие из двоичного файла, линейных моделей классификации: тот, который использует все предикторы и тот, который использует половину предикторов. Укажите, что наблюдения соответствуют столбцам.

CVMdl = fitcecoc(fullX,Y,'Learners',t,'CrossVal','on',...
    'ObservationsIn','columns');
PCVMdl = fitcecoc(partX,Y,'Learners',t,'CrossVal','on',...
    'ObservationsIn','columns');

CVMdl и PCVMdl являются моделями ClassificationPartitionedLinearECOC.

Оцените ребро k-сгиба для каждого классификатора.

fullEdge = kfoldEdge(CVMdl)
fullEdge = 0.3090
partEdge = kfoldEdge(PCVMdl)
partEdge = 0.2617

На основе ребер k-сгиба классификатор, который использует все предикторы, является лучшей моделью.

Чтобы определить хорошую силу штрафа лассо для линейной модели классификации, которая использует ученика логистической регрессии, сравните ребра k-сгиба.

Загрузите набор данных NLP. Предварительно обработайте данные как в Выборе Функции Используя Ребра k-сгиба.

load nlpdata
Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others';
X = X';

Создайте набор 8 логарифмически распределенных сильных мест регуляризации от 10-8 через 101.

Lambda = logspace(-8,1,8);

Создайте линейный шаблон модели классификации, который задает, чтобы использовать логистическую регрессию со штрафом лассо, использовать каждые из сильных мест регуляризации, оптимизировать использование целевой функции SpaRSA и уменьшать допуск на градиенте целевой функции к 1e-8.

t = templateLinear('Learner','logistic','Solver','sparsa',...
    'Regularization','lasso','Lambda',Lambda,'GradientTolerance',1e-8);

Перекрестный подтвердите модель ECOC, состоявшую из двоичного файла, линейные модели классификации с помощью 5-кратной перекрестной проверки и этого

rng(10); % For reproducibility
CVMdl = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns','KFold',5)
CVMdl = 
  classreg.learning.partition.ClassificationPartitionedLinearECOC
    CrossValidatedModel: 'Linear'
           ResponseName: 'Y'
        NumObservations: 31572
                  KFold: 5
              Partition: [1×1 cvpartition]
             ClassNames: [comm    dsp    simulink    others]
         ScoreTransform: 'none'


  Properties, Methods

CVMdl является моделью ClassificationPartitionedLinearECOC.

Оцените ребра для каждого сгиба и силы регуляризации.

eFolds = kfoldEdge(CVMdl,'Mode','individual')
eFolds = 5×8

    0.5511    0.5520    0.5525    0.5514    0.4869    0.2933    0.1025    0.0857
    0.5257    0.5270    0.5270    0.5277    0.4801    0.2944    0.1049    0.0866
    0.5256    0.5265    0.5272    0.5276    0.4724    0.2884    0.1034    0.0866
    0.5386    0.5394    0.5405    0.5373    0.4824    0.2903    0.1009    0.0854
    0.5497    0.5551    0.5582    0.5575    0.4944    0.2939    0.1030    0.0849

eFolds 5 8 матрица ребер. Строки соответствуют сгибам, и столбцы соответствуют сильным местам регуляризации в Lambda. Можно использовать eFolds, чтобы идентифицировать сгибы плохо выполнения, то есть, необычно низкие ребра.

Оцените среднее ребро по всем сгибам для каждой силы регуляризации.

e = kfoldEdge(CVMdl)
e = 1×8

    0.5382    0.5400    0.5411    0.5403    0.4832    0.2921    0.1029    0.0858

Определите, как хорошо модели делают вывод путем графического вывода средних значений 5-кратного ребра для каждой силы регуляризации. Идентифицируйте силу регуляризации, которая максимизирует 5-кратное ребро по сетке.

figure;
plot(log10(Lambda),log10(e),'-o')
[~, maxEIdx] = max(e);
maxLambda = Lambda(maxEIdx);
hold on
plot(log10(maxLambda),log10(e(maxEIdx)),'ro');
ylabel('log_{10} 5-fold edge')
xlabel('log_{10} Lambda')
legend('Edge','Max edge')
hold off

Несколько значений Lambda приводят к столь же высоким ребрам. Большие значения силы регуляризации приводят к разреженности переменной прогноза, которая является хорошим качеством классификатора.

Выберите силу регуляризации, которая происходит непосредственно перед тем, как ребро начинает уменьшаться.

LambdaFinal = Lambda(4);

Обучите модель ECOC, состоявшую из линейной модели классификации использование целого набора данных, и задайте силу регуляризации LambdaFinal.

t = templateLinear('Learner','logistic','Solver','sparsa',...
    'Regularization','lasso','Lambda',LambdaFinal,'GradientTolerance',1e-8);
MdlFinal = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns');

Чтобы оценить метки для новых наблюдений, передайте MdlFinal и новые данные к predict.

Больше о

развернуть все

Ссылки

[1] Allwein, E., Р. Шапайр и И. Зингер. “Уменьшая мультикласс до двоичного файла: подход объединения для поля classifiers”. Журнал Исследования Машинного обучения. Издание 1, 2000, стр 113–141.

[2] Escalera, S., О. Пуджол и П. Радева. “На процессе декодирования в троичных выходных кодах с коррекцией ошибок”. Транзакции IEEE согласно Анализу Шаблона и Искусственному интеллекту. Издание 32, Выпуск 7, 2010, стр 120–134.

[3] Escalera, S., О. Пуджол и П. Радева. “Отделимость троичных кодов для разреженных проектов выходных кодов с коррекцией ошибок”. Шаблон Recogn. Издание 30, Выпуск 3, 2009, стр 285–297.

Расширенные возможности

Введенный в R2016a

Для просмотра документации необходимо авторизоваться на сайте