kfoldPredict

Классификация наблюдений в перекрестно проверенной модели ECOC ядра

Описание

пример

label = kfoldPredict(CVMdl) возвращает метки классов, предсказанные перекрестно проверенной моделью ECOC ядра (ClassificationPartitionedKernelECOC) CVMdl. Для каждой складки, kfoldPredict предсказывает метки классов для наблюдений сворачивания с валидацией, используя модель, обученную наблюдениям сворачивания. kfoldPredict применяет те же данные, что и при создании CVMdl (см. fitcecoc).

Программа предсказывает классификацию наблюдения путем присвоения наблюдения классу, получая наибольшие отрицательные средние двоичные потери (или, что эквивалентно, наименьшие средние двоичные потери).

label = kfoldPredict(CVMdl,Name,Value) возвращает предсказанные метки классов с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Для примера задайте апостериорный метод оценки вероятностей, схему декодирования или уровень подробностей.

пример

[label,NegLoss,PBScore] = kfoldPredict(___) дополнительно возвращает отрицательные значения средних двоичных потерь на класс (NegLoss) для наблюдений с разбиением на валидации и счетов положительного класса (PBScore) для наблюдений с складкой валидации, классифицированных каждым двоичным учеником, с использованием любой из комбинаций входных аргументов в предыдущих синтаксисах.

Если матрица кодирования изменяется между складками (то есть схема кодирования sparserandom или denserandom), затем PBScore пуст ([]).

пример

[label,NegLoss,PBScore,Posterior] = kfoldPredict(___) дополнительно возвращает апостериорные оценки вероятностей классов для валидационно-складных наблюдений (Posterior).

Чтобы получить апостериорные вероятности класса, двоичные ученики классификации ядра должны быть логистическими регрессиоными моделями. В противном случае, kfoldPredict выдает ошибку.

Примеры

свернуть все

Классифицируйте наблюдения с помощью перекрестно проверенного многоклассового классификатора ECOC и отображайте матрицу неточностей для полученной классификации.

Загрузите набор данных радужки Фишера. X содержит измерения цветов и Y содержит имена видов цветов.

load fisheriris
X = meas;
Y = species;

Перекрестная проверка модели ECOC, состоящей из двоичных учащихся ядра.

rng(1); % For reproducibility 
CVMdl = fitcecoc(X,Y,'Learners','kernel','CrossVal','on')
CVMdl = 
  ClassificationPartitionedKernelECOC
    CrossValidatedModel: 'KernelECOC'
           ResponseName: 'Y'
        NumObservations: 150
                  KFold: 10
              Partition: [1x1 cvpartition]
             ClassNames: {'setosa'  'versicolor'  'virginica'}
         ScoreTransform: 'none'


  Properties, Methods

CVMdl является ClassificationPartitionedKernelECOC модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную валидацию. Чтобы задать другое количество складок, используйте 'KFold' аргумент пары "имя-значение" вместо 'Crossval'.

Классифицируйте наблюдения, которые fitcecoc не использует при обучении складок.

label = kfoldPredict(CVMdl);

Создайте матрицу неточностей, чтобы сравнить истинные классы наблюдений с их предсказанными метками.

C = confusionchart(Y,label);

Figure contains an object of type ConfusionMatrixChart.

The CVMdl модель ошибочно классифицирует четыре 'versicolor' ирисы как 'virginica' иризует и неправильно классифицирует одно 'virginica' радужная оболочка глаза как 'versicolor' радужная оболочка глаза.

Загрузите набор данных радужки Фишера. X содержит измерения цветов и Y содержит имена видов цветов.

load fisheriris
X = meas;
Y = species;

Перекрестная валидация модели ECOC моделей классификации ядер с помощью 5-кратной перекрестной валидации.

rng(1); % For reproducibility 
CVMdl = fitcecoc(X,Y,'Learners','kernel','KFold',5)
CVMdl = 
  ClassificationPartitionedKernelECOC
    CrossValidatedModel: 'KernelECOC'
           ResponseName: 'Y'
        NumObservations: 150
                  KFold: 5
              Partition: [1x1 cvpartition]
             ClassNames: {'setosa'  'versicolor'  'virginica'}
         ScoreTransform: 'none'


  Properties, Methods

CVMdl является ClassificationPartitionedKernelECOC модель. Оно содержит свойство Trained, который является массивом ячеек 5 на 1 CompactClassificationECOC модели.

По умолчанию модели классификации ядра, которые составляют CompactClassificationECOC модели используют SVM. Счета SVM являются подписанными расстояниями от наблюдения до контура принятия решения. Поэтому область является (-,). Создайте пользовательскую функцию двоичных потерь, которая:

  • Сопоставляет матрицу проекта кодирования (M) и классификационные оценки (оценки ) (ы) положительного класса для каждого учащегося с двоичными потерями для каждого наблюдения

  • Использует линейные потери

  • Агрегирует двоичные потери учащегося с помощью медианы

Можно создать отдельную функцию для функции двоичных потерь, а затем сохранить ее в пути MATLAB ®. Или можно задать анонимную функцию двоичных потерь. В этом случае создайте указатель на функцию (customBL) к анонимной функции двоичных потерь.

customBL = @(M,s)nanmedian(1 - bsxfun(@times,M,s),2)/2;

Спрогнозируйте метки перекрестной валидации и оцените медианные двоичные потери по классам. Печать медианы отрицательных двоичных потерь на класс для случайного набора из 10 наблюдений.

[label,NegLoss] = kfoldPredict(CVMdl,'BinaryLoss',customBL);

idx = randsample(numel(label),10);
table(Y(idx),label(idx),NegLoss(idx,1),NegLoss(idx,2),NegLoss(idx,3),...
    'VariableNames',[{'True'};{'Predicted'};...
    unique(CVMdl.ClassNames)])
ans=10×5 table
         True           Predicted        setosa     versicolor    virginica
    ______________    ______________    ________    __________    _________

    {'setosa'    }    {'setosa'    }     0.20926     -0.84572     -0.86354 
    {'setosa'    }    {'setosa'    }     0.16144     -0.90572     -0.75572 
    {'virginica' }    {'versicolor'}    -0.83532     -0.12157     -0.54311 
    {'virginica' }    {'virginica' }    -0.97235     -0.69759      0.16994 
    {'virginica' }    {'virginica' }    -0.89441     -0.69937     0.093778 
    {'virginica' }    {'virginica' }    -0.86774     -0.47297     -0.15929 
    {'setosa'    }    {'setosa'    }     -0.1026     -0.69671     -0.70069 
    {'setosa'    }    {'setosa'    }      0.1001     -0.89163     -0.70848 
    {'virginica' }    {'virginica' }     -1.0106     -0.52919     0.039829 
    {'versicolor'}    {'versicolor'}     -1.0298     0.027354     -0.49757 

Перекрестная проверенная модель правильно предсказывает метки для 9 из 10 случайных наблюдений.

Оцените апостериорные вероятности классов с помощью перекрестно проверенной многоклассовой ядерной классификационной модели ECOC. Модели классификации ядра возвращают апостериорные вероятности только для учащихся логистической регрессии.

Загрузите набор данных радужки Фишера. X содержит измерения цветов и Y содержит имена видов цветов.

load fisheriris
X = meas;
Y = species;

Создайте шаблон ядра для двоичных моделей классификации ядра. Задайте, чтобы соответствовать учителям логистической регрессии.

t = templateKernel('Learner','logistic')
t = 
Fit template for classification Kernel.

             BetaTolerance: []
                 BlockSize: []
             BoxConstraint: []
                   Epsilon: []
    NumExpansionDimensions: []
         GradientTolerance: []
        HessianHistorySize: []
            IterationLimit: []
               KernelScale: []
                    Lambda: []
                   Learner: 'logistic'
              LossFunction: []
                    Stream: []
            VerbosityLevel: []
                   Version: 1
                    Method: 'Kernel'
                      Type: 'classification'

t является шаблоном ядра. Большинство его свойств пусты. При обучении классификатора ECOC с помощью шаблона программное обеспечение устанавливает применимые свойства на их значения по умолчанию.

Перекрестная проверка модели ECOC с помощью шаблона ядра.

rng('default'); % For reproducibility
CVMdl = fitcecoc(X,Y,'Learners',t,'CrossVal','on')
CVMdl = 
  ClassificationPartitionedKernelECOC
    CrossValidatedModel: 'KernelECOC'
           ResponseName: 'Y'
        NumObservations: 150
                  KFold: 10
              Partition: [1x1 cvpartition]
             ClassNames: {'setosa'  'versicolor'  'virginica'}
         ScoreTransform: 'none'


  Properties, Methods

CVMdl является ClassificationPartitionedECOC модель. По умолчанию программа использует 10-кратную перекрестную валидацию.

Предсказать апостериорные вероятности класса validation-fold.

[label,~,~,Posterior] = kfoldPredict(CVMdl);

Программа присваивает наблюдение классу, которое приводит к наименьшим средним двоичным потерям. Поскольку все двоичные ученики вычисляют апостериорные вероятности, функция двоичных потерь quadratic.

Отобразите апостериорные вероятности для 10 случайным образом выбранных наблюдений.

idx = randsample(size(X,1),10);
CVMdl.ClassNames
ans = 3x1 cell
    {'setosa'    }
    {'versicolor'}
    {'virginica' }

table(Y(idx),label(idx),Posterior(idx,:),...
    'VariableNames',{'TrueLabel','PredLabel','Posterior'})
ans=10×3 table
      TrueLabel         PredLabel                  Posterior            
    ______________    ______________    ________________________________

    {'setosa'    }    {'setosa'    }     0.68216     0.18546     0.13238
    {'virginica' }    {'virginica' }      0.1581     0.14405     0.69785
    {'virginica' }    {'virginica' }    0.071807    0.093291      0.8349
    {'setosa'    }    {'setosa'    }     0.74918     0.11434     0.13648
    {'versicolor'}    {'versicolor'}     0.09375     0.67149     0.23476
    {'versicolor'}    {'versicolor'}    0.036202     0.85544     0.10836
    {'versicolor'}    {'versicolor'}      0.2252     0.50473     0.27007
    {'virginica' }    {'virginica' }    0.061562     0.11086     0.82758
    {'setosa'    }    {'setosa'    }     0.42448     0.21181     0.36371
    {'virginica' }    {'virginica' }    0.082705      0.1428      0.7745

Столбцы Posterior соответствуют классу порядка CVMdl.ClassNames.

Входные параметры

свернуть все

Перекрестная проверенная модель ECOC ядра, заданная как ClassificationPartitionedKernelECOC модель. Можно создать ClassificationPartitionedKernelECOC модель путем настройки модели ECOC с помощью fitcecoc и определение этих аргументов пары "имя-значение":

  • 'Learners'- Установите значение 'kernel', объект шаблона, возвращенный templateKernelили массив ячеек из таких объектов шаблона.

  • Один из аргументов 'CrossVal', 'CVPartition', 'Holdout', 'KFold', или 'Leaveout'.

Аргументы в виде пар имя-значение

Задайте необязательные разделенные разделенными запятой парами Name,Value аргументы. Name - имя аргумента и Value - соответствующее значение. Name должны находиться внутри кавычек. Можно задать несколько аргументов в виде пар имен и значений в любом порядке Name1,Value1,...,NameN,ValueN.

Пример: kfoldPredict(CVMdl,'PosteriorMethod','qp') задает оценку многоклассовых апостериорных вероятностей путем решения задачи наименьших квадратов с помощью квадратичного программирования.

Двоичная функция потерь учащегося, заданная как разделенная разделенными запятой парами, состоящая из 'BinaryLoss' и встроенное имя функции потери или указатель на функцию.

  • Эта таблица содержит имена и описания встроенных функций, где yj является меткой класса для конкретного двоичного ученика (в наборе {-1,1,0}), sj является счетом для j наблюдений и g (yj, sj) является формулой двоичных потерь.

    ЗначениеОписаниеСчетg (yj, sj)
    'binodeviance'Биномиальное отклонение(–∞,∞)log [1 + exp (-2 yjsj) ]/[ 2log (2)]
    'exponential'Экспоненциал(–∞,∞)exp (- yjsj )/2
    'hamming'Хэмминг[0,1] или (- ∞, ∞)[1 - знак (yjsj) ]/2
    'hinge'Стержень(–∞,∞)макс (0,1 - yjsj )/2
    'linear'Линейный(–∞,∞)(1 – yjsj)/2
    'logit'Логистический(–∞,∞)журнал [1 + exp (- yjsj) ]/[ 2log (2)]
    'quadratic'Квадратный[0,1][1 – yj (2 sj – 1)]2/2

    Программа нормализует двоичные потери так, что потеря составляет 0,5 при yj = 0. Кроме того, программное обеспечение вычисляет средние двоичные потери для каждого класса.

  • Для пользовательской функции двоичных потерь, например, customFunction, задайте его указатель на функцию 'BinaryLoss',@customFunction.

    customFunction имеет следующую форму:

    bLoss = customFunction(M,s)
    где:

    • M - K матрица кодирования L, сохраненная в Mdl.CodingMatrix.

    • s - вектор-строка L 1 байта классификационных баллов.

    • bLoss - классификационные потери. Этот скаляр агрегирует двоичные потери для каждого учащегося в конкретном классе. Для примера можно использовать среднее значение двоичных потерь для агрегирования потерь по учащимся для каждого класса.

    • K - количество классов.

    • L - это количество двоичных учащихся.

По умолчанию, если все двоичные ученики являются моделями классификации ядра с использованием SVM, то BinaryLoss является 'hinge'. Если все двоичные ученики являются моделями классификации ядра с помощью логистической регрессии, то BinaryLoss является 'quadratic'.

Пример: 'BinaryLoss','binodeviance'

Типы данных: char | string | function_handle

Схема декодирования, которая агрегирует двоичные потери, заданные как разделенная разделенными запятой парами, состоящая из 'Decoding' и 'lossweighted' или 'lossbased'. Для получения дополнительной информации смотрите Двоичные потери.

Пример: 'Decoding','lossbased'

Количество случайных начальных значений для подбора кривой апостериорных вероятностей путем минимизации расхождения Кулбака-Лейблера, заданное как разделенная разделенными запятой парами, состоящая из 'NumKLInitializations' и неотрицательный целочисленный скаляр.

Если вы не запрашиваете четвертый выходной аргумент (Posterior) и установите 'PosteriorMethod','kl' (по умолчанию), тогда программа игнорирует значение NumKLInitializations.

Для получения дополнительной информации см. «Апостериорная оценка с использованием расхождения Кулбэка-Лейблера».

Пример: 'NumKLInitializations',5

Типы данных: single | double

Опции оценки, заданные как разделенная разделенными запятой парами, состоящая из 'Options' и массив структур, возвращенный statset.

Чтобы вызвать параллельные вычисления:

  • Вам нужна лицензия Parallel Computing Toolbox™.

  • Задайте 'Options',statset('UseParallel',true).

Апостериорный метод оценки вероятности, заданный как разделенная разделенными запятой парами, состоящая из 'PosteriorMethod' и 'kl' или 'qp'.

  • Если PosteriorMethod является 'kl'затем программное обеспечение оценивает многоклассовые апостериорные вероятности путем минимизации расхождения Кулбэка-Лейблера между предсказанной и ожидаемой апостериорной вероятностями, возвращенными двоичными учениками. Для получения дополнительной информации смотрите Апостериорную оценку с использованием расхождения Кулбэка-Лейблера.

  • Если PosteriorMethod является 'qp'затем программное обеспечение оценивает многоклассовые апостериорные вероятности путем решения задачи наименьших квадратов с помощью квадратичного программирования. Чтобы использовать эту опцию, вам нужна лицензия Optimization Toolbox™. Для получения дополнительной информации смотрите Апостериорную оценку с использованием квадратичного программирования.

  • Если вы не запрашиваете четвертый выходной аргумент (Posterior), тогда программное обеспечение игнорирует значение PosteriorMethod.

Пример: 'PosteriorMethod','qp'

Уровень подробностей, заданный как разделенная разделенными запятой парами, состоящая из 'Verbose' и 0 или 1. Verbose управляет количеством диагностических сообщений, которые программное обеспечение отображений в Командном окне.

Если Verbose является 0тогда программа не отображает диагностические сообщения. В противном случае программа отображает диагностические сообщения.

Пример: 'Verbose',1

Типы данных: single | double

Выходные аргументы

свернуть все

Предсказанные метки классов, возвращенные как категориальный или символьный массив, логический или числовой вектор или массив ячеек из векторов символов.

label имеет тот совпадающий тип данных и количество строк, что и CVMdl.Y.

Программа предсказывает классификацию наблюдения путем присвоения наблюдения классу, получая наибольшие отрицательные средние двоичные потери (или, что эквивалентно, наименьшие средние двоичные потери).

Отрицательные средние двоичные потери, возвращенные как числовая матрица. NegLoss является n -by - K матрицей, где n - количество наблюдений (size(CVMdl.Y,1)) и K количество уникальных классов (size(CVMdl.ClassNames,1)).

Счета класса для каждого двоичного ученика, возвращенные в виде числовой матрицы. PBScore является n -by - L матрицей, где n - количество наблюдений (size(CVMdl.Y,1)) и L количество двоичных учащихся (size(CVMdl.CodingMatrix,2)).

Если матрица кодирования изменяется между складками (то есть схема кодирования sparserandom или denserandom), затем PBScore пуст ([]).

Апостериорные вероятности классов, возвращенные как числовая матрица. Posterior является n -by - K матрицей, где n - количество наблюдений (size(CVMdl.Y,1)) и K количество уникальных классов (size(CVMdl.ClassNames,1)).

Чтобы вернуть апостериорные вероятности, каждый двоичный ученик классификации ядра должен иметь свои Learner значение свойства установлено в 'logistic'. В противном случае программа выдает ошибку.

Подробнее о

свернуть все

Двоичные потери

binary loss является функцией класса и классификационной оценки, которая определяет, насколько хорошо двоичный ученик классифицирует наблюдение в класс.

Предположим следующее:

  • mkj является элементом (k, j) матрицы разработки кодирования M (то есть кода, соответствующего k классов двоичных j обучающегося).

  • sj - этот счет двоичных j учащихся для наблюдения.

  • g является функцией двоичных потерь.

  • k^ - предсказанный класс для наблюдения.

В loss-based decoding [Escalera et al.] класс, производящий минимальную сумму двоичных потерь по сравнению с двоичными учениками, определяет предсказанный класс наблюдения, то есть

k^=argminkj=1L|mkj|g(mkj,sj).

В loss-weighted decoding [Escalera et al.] класс, производящий минимальное среднее значение двоичных потерь по сравнению с двоичными учениками, определяет предсказанный класс наблюдения, то есть

k^=argminkj=1L|mkj|g(mkj,sj)j=1L|mkj|.

Allwein et al. предположим, что утраченное декодирование повышает точность классификации путем сохранения значений потерь для всех классов в одной динамической области значений.

В этой таблице приведены поддерживаемые функции потерь, где yj является меткой класса для конкретного двоичного обучающегося (в наборе {-1,1,0}), sj является счетом для j наблюдений и g (yj, sj).

ЗначениеОписаниеСчетg (yj, sj)
'binodeviance'Биномиальное отклонение(–∞,∞)log [1 + exp (-2 yjsj) ]/[ 2log (2)]
'exponential'Экспоненциал(–∞,∞)exp (- yjsj )/2
'hamming'Хэмминг[0,1] или (- ∞, ∞)[1 - знак (yjsj) ]/2
'hinge'Стержень(–∞,∞)макс (0,1 - yjsj )/2
'linear'Линейный(–∞,∞)(1 – yjsj)/2
'logit'Логистический(–∞,∞)журнал [1 + exp (- yjsj) ]/[ 2log (2)]
'quadratic'Квадратный[0,1][1 – yj (2 sj – 1)]2/2

Программа нормализует двоичные потери таким образом, что потеря составляет 0,5 при yj = 0, и агрегирует, используя среднее значение двоичных учащихся [Allwein et al.].

Не путайте двоичные потери с общими классификационными потерями (заданными 'LossFun' Аргумент пары "имя-значение" из loss и predict функции объекта), который измеряет, насколько хорошо классификатор ECOC работает в целом.

Алгоритмы

свернуть все

Программа может оценить апостериорные вероятности класса путем минимизации расхождения Кулбэка-Лейблера или с помощью квадратичного программирования. Для следующих описаний алгоритмов апостериорной оценки примите, что:

  • mkj - элемент (k, j) матричной M проекта кодирования.

  • I является функцией индикации.

  • p^k - классовая апостериорная оценка вероятности для класса k наблюдения, k = 1,..., K.

  • rj является апостериорной вероятностью положительного класса для двоичных j учащегося. То есть rj вероятность того, что двоичный j учащегося классифицирует наблюдение в положительный класс, учитывая обучающие данные.

Апостериорная оценка с использованием расхождения Куллбэка-Лейблера

По умолчанию программное обеспечение минимизирует расхождение Кулбэка-Лейблера, чтобы оценить апостериорные вероятности класса. Расхождение Куллбэка-Лейблера между ожидаемыми и наблюдаемыми апостериорными вероятностями положительного класса является

Δ(r,r^)=j=1Lwj[rjlogrjr^j+(1rj)log1rj1r^j],

где wj=Sjwi - вес для двоичных j учащегося.

  • Sj - это набор индексов наблюдений, на которых обучаются j двоичных учащихся.

  • wi - вес i наблюдений.

Программа итерационно минимизирует расхождение. Первым шагом является выбор начальных значений p^k(0);k=1,...,K для апостериорных вероятностей класса.

  • Если вы не задаете 'NumKLIterations'затем программа пробует оба набора детерминированных начальных значений, описанных далее, и выбирает набор, который минимизирует

    • p^k(0)=1/K;k=1,...,K.

    • p^k(0);k=1,...,K является решением системы

      M01p^(0)=r,

      где M 01 M со всеми mkj = -1, замененными на 0, и r является вектором апостериорных вероятностей положительного класса, возвращенных L двоичными учениками [Dietterich et al.]. Программное обеспечение используетlsqnonneg для решения системы.

  • Если вы задаете 'NumKLIterations',c, где c является натуральным числом, затем программное обеспечение делает следующее, чтобы выбрать набор p^k(0);k=1,...,K, и выбирает множество, которое минимизирует

    • Программа пробует оба набора детерминированных начальных значений, как описано ранее.

    • Программа случайным образом генерирует c векторы длины K использованием rand, и затем нормализует каждый вектор до суммы 1.

На t итерации программное обеспечение завершает следующие шаги:

  1. Вычислить

    r^j(t)=k=1Kp^k(t)I(mkj=+1)k=1Kp^k(t)I(mkj=+1mkj=1).

  2. Оцените апостериорную вероятность следующего класса, используя

    p^k(t+1)=p^k(t)j=1Lwj[rjI(mkj=+1)+(1rj)I(mkj=1)]j=1Lwj[r^j(t)I(mkj=+1)+(1r^j(t))I(mkj=1)].

  3. Нормализовать p^k(t+1);k=1,...,K так что они равны 1.

  4. Проверяйте на сходимость.

Для получения дополнительной информации см. [Hastie et al.] и [Zadrozny].

Апостериорная оценка с использованием квадратичного программирования

Апостериорная оценка вероятности с использованием квадратичного программирования требует лицензии Optimization Toolbox. Чтобы оценить апостериорные вероятности для наблюдения с помощью этого метода, программное обеспечение завершает следующие шаги:

  1. Оцените апостериорные вероятности положительного класса, rj, для двоичных учащихся j = 1,..., L.

  2. Использование связи между rj и p^k [Wu et al.], минимизировать

    j=1L[rjk=1Kp^kI(mkj=1)+(1rj)k=1Kp^kI(mkj=+1)]2

    по отношению к p^k и ограничения

    0p^k1kp^k=1.

    Программное обеспечение выполняет минимизацию, используя quadprog (Optimization Toolbox).

Ссылки

[1] Allwein, E., R. Schapire, and Y. Singer. «Сокращение многоклассового числа до двоичного: Унифицирующий подход к маржинальным classifiers». Журнал исследований машинного обучения. Том 1, 2000, стр. 113-141.

[2] Диттерих, Т., и Г. Бакири. «Решение многоклассовых задач обучения с помощью выходных кодов с исправлением ошибок». Журнал исследований искусственного интеллекта. Том 2, 1995, стр. 263-286.

[3] Эскалера, С., О. Пужоль, и П. Радева. «О процессе декодирования в троичных выходных кодах с исправлением ошибок». Транзакции IEEE по шаблонному анализу и машинному анализу. Том 32, Выпуск 7, 2010, стр. 120-134.

[4] Эскалера, С., О. Пужоль, и П. Радева. «Разделяемость троичных кодов для разреженных проектов выходных кодов с исправлением ошибок». Pattern Recogn (Повторный вызов шаблона). Том 30, Выпуск 3, 2009, стр. 285-297.

[5] Хасти, Т. и Р. Тибширани. Классификация по парному соединению. Анналы статистики. Том 26, Выпуск 2, 1998, стр. 451-471.

[6] Wu, T. F., C. J. Лин и Р. Венг. «Оценки вероятностей для многоклассовой классификации по парным связям». Журнал исследований машинного обучения. Том 5, 2004, стр. 975-1005.

[7] Задрозный, Б. «Уменьшение мультикласса до двоичного путем связывания оценок вероятностей». NIPS 2001: Труды по усовершенствованиям в системах нейронной обработки информации 14, 2001, стр. 1041-1048.

Введенный в R2018b