Классифицируйте наблюдения на перекрестную подтвержденную модель ECOC
label = kfoldPredict(CVMdl)
label = kfoldPredict(CVMdl,Name,Value)
[label,NegLoss,PBScore]
= kfoldPredict(___)
[label,NegLoss,PBScore,Posterior]
= kfoldPredict(___)
возвращает метки класса, предсказанные перекрестной подтвержденной моделью ECOC (label
= kfoldPredict(CVMdl
)ClassificationPartitionedECOC
) CVMdl
. Для каждого сгиба kfoldPredict
предсказывает метки класса для наблюдений, что это протягивает во время обучения. CVMdl.X
содержит оба набора наблюдений.
Программное обеспечение предсказывает классификацию наблюдения путем присвоения наблюдения классу, приводящему к самой большой отрицаемой средней бинарной потере (или, эквивалентно, самой маленькой средней бинарной потере).
возвращает предсказанные метки класса с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Например, задайте метод оценки апостериорной вероятности, декодируя схему или уровень многословия.label
= kfoldPredict(CVMdl
,Name,Value
)
[
дополнительно возвращает отрицаемые значения средней бинарной потери в классе (label
,NegLoss
,PBScore
]
= kfoldPredict(___)NegLoss
) для наблюдений сгиба валидации и очков положительного класса (PBScore
) для наблюдений сгиба валидации, классифицированных каждым бинарным учеником, с помощью любой из комбинаций входных аргументов в предыдущих синтаксисах.
Если матрица кодирования отличается через сгибы (то есть, схемой кодирования является sparserandom
или denserandom
), то PBScore
пуст ([]
).
[
дополнительно возвращает следующие оценки вероятности класса для наблюдений сгиба валидации (label
,NegLoss
,PBScore
,Posterior
]
= kfoldPredict(___)Posterior
).
Чтобы получить следующие вероятности класса, необходимо установить 'FitPosterior',1
когда обучение перекрестная подтвержденная модель ECOC с помощью fitcecoc
. В противном случае kfoldPredict
выдает ошибку.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
, данные об ответе Y
и порядок классов в Y
.
load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); rng(1); % For reproducibility
Обучите и перекрестный подтвердите модель ECOC с помощью двоичных классификаторов машины вектора поддержки (SVM). Стандартизируйте данные о предикторе с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',1); CVMdl = fitcecoc(X,Y,'CrossVal','on','Learners',t,'ClassNames',classOrder);
CVMdl
является моделью ClassificationPartitionedECOC
. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно задать различное количество сгибов с помощью аргумента пары "имя-значение" 'KFold'
.
Предскажите метки сгиба валидации. Распечатайте случайное подмножество истинных и предсказанных меток.
labels = kfoldPredict(CVMdl); idx = randsample(numel(labels),10); table(Y(idx),labels(idx),... 'VariableNames',{'TrueLabels','PredictedLabels'})
ans=10×2 table
TrueLabels PredictedLabels
__________ _______________
setosa setosa
versicolor versicolor
setosa setosa
virginica virginica
versicolor versicolor
setosa setosa
virginica virginica
virginica virginica
setosa setosa
setosa setosa
CVMdl
правильно маркирует наблюдения сгиба валидации индексами idx
.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
, данные об ответе Y
и порядок классов в Y
.
load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order K = numel(classOrder); % Number of classes rng(1); % For reproducibility
Обучите и перекрестный подтвердите модель ECOC с помощью двоичных классификаторов SVM. Стандартизируйте данные о предикторе с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',1); CVMdl = fitcecoc(X,Y,'CrossVal','on','Learners',t,'ClassNames',classOrder);
CVMdl
является моделью ClassificationPartitionedECOC
. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно задать различное количество сгибов с помощью аргумента пары "имя-значение" 'KFold'
.
Очки SVM являются подписанными расстояниями от наблюдения до контура решения. Поэтому область . Создайте пользовательскую бинарную функцию потерь что:
Сопоставляет матрицу (M) проекта кодирования и очки (очки) классификации положительных классов к каждому ученику к бинарной потере для каждого наблюдения
Использует линейную потерю
Агрегировал бинарную утрату ученика с помощью медианы
Можно создать отдельную функцию для бинарной функции потерь, и затем сохранить ее на пути MATLAB®. Также можно задать анонимную бинарную функцию потерь. В этом случае создайте указатель на функцию (customBL
) к анонимной бинарной функции потерь.
customBL = @(M,s)nanmedian(1 - bsxfun(@times,M,s),2)/2;
Предскажите метки перекрестной проверки и оцените среднюю бинарную потерю в классе. Распечатайте средние отрицательные бинарные потери в классе для случайного набора 10 наблюдений сгиба валидации.
[label,NegLoss] = kfoldPredict(CVMdl,'BinaryLoss',customBL);
idx = randsample(numel(label),10);
classOrder
classOrder = 3x1 categorical array
setosa
versicolor
virginica
table(Y(idx),label(idx),NegLoss(idx,:),'VariableNames',... {'TrueLabel','PredictedLabel','NegLoss'})
ans=10×3 table
TrueLabel PredictedLabel NegLoss
__________ ______________ _________________________________
setosa versicolor 0.37141 2.1292 -4.0006
versicolor versicolor -1.2167 0.3669 -0.65017
setosa versicolor 0.23927 2.08 -3.8193
virginica virginica -1.9154 -0.19947 0.6149
versicolor versicolor -1.3746 0.45535 -0.58076
setosa versicolor 0.20061 2.2774 -3.9781
virginica versicolor -1.4928 0.090689 -0.097935
virginica virginica -1.7669 -0.13464 0.4015
setosa versicolor 0.19999 1.9113 -3.6113
setosa versicolor 0.16108 1.9684 -3.6295
Порядок столбцов соответствует элементам classOrder
. Программное обеспечение предсказывает метку на основе максимальной отрицаемой потери. Результаты показывают, что медиана линейных потерь не может выполнить, а также другие потери.
Загрузите ирисовый набор данных Фишера. Используйте лепестковые размерности в качестве данных о предикторе X
. Задайте данные об ответе Y
и порядок классов в Y
.
load fisheriris X = meas(:,3:4); Y = categorical(species); classOrder = unique(Y); rng(1); % For reproducibility
Создайте шаблон SVM. Стандартизируйте предикторы и задайте Гауссово ядро.
t = templateSVM('Standardize',1,'KernelFunction','gaussian');
t
является шаблоном SVM. Большинство его свойств пусто. Когда обучение классификатор ECOC, программное обеспечение устанавливает применимые свойства на их значения по умолчанию.
Обучите и перекрестный подтвердите классификатор ECOC с помощью шаблона SVM. Преобразуйте очки классификации, чтобы классифицировать апостериорные вероятности (возвращенный kfoldPredict
) использование аргумента пары "имя-значение" 'FitPosterior'
. Задайте порядок класса.
CVMdl = fitcecoc(X,Y,'Learners',t,'CrossVal','on','FitPosterior',true,... 'ClassNames',classOrder);
CVMdl
является моделью ClassificationPartitionedECOC
. По умолчанию программное обеспечение использует 10-кратную перекрестную проверку.
Предскажите апостериорные вероятности класса сгиба валидации. Используйте 10 случайных начальных значений для алгоритма Kullback-Leibler.
[label,~,~,Posterior] = kfoldPredict(CVMdl,'NumKLInitializations',10);
Программное обеспечение присваивает наблюдение классу, который приводит к самой маленькой средней бинарной потере. Поскольку все бинарные ученики вычисляют апостериорные вероятности, бинарной функцией потерь является quadratic
.
Отобразите случайный набор результатов.
idx = randsample(size(X,1),10); CVMdl.ClassNames
ans = 3x1 categorical array
setosa
versicolor
virginica
table(Y(idx),label(idx),Posterior(idx,:),... 'VariableNames',{'TrueLabel','PredLabel','Posterior'})
ans=10×3 table
TrueLabel PredLabel Posterior
__________ __________ ______________________________________
versicolor versicolor 0.0086394 0.98243 0.0089291
versicolor virginica 2.2197e-14 0.12447 0.87553
setosa setosa 0.999 0.00022837 0.00076884
versicolor versicolor 2.2194e-14 0.98916 0.010839
virginica virginica 0.012318 0.012925 0.97476
virginica virginica 0.0015571 0.0015638 0.99688
virginica virginica 0.0042894 0.0043555 0.99136
setosa setosa 0.999 0.00028329 0.00071382
virginica virginica 0.0094641 0.0098145 0.98072
setosa setosa 0.999 0.00013562 0.00086192
Столбцы Posterior
соответствуют порядку класса CVMdl.ClassNames
.
Этот пример использование:
Обучите мультикласс модель ECOC и оцените апостериорные вероятности с помощью параллельных вычислений.
Загрузите набор данных arrhythmia
. Исследуйте данные об ответе Y
.
load arrhythmia
Y = categorical(Y);
tabulate(Y)
Value Count Percent 1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 7 3 0.66% 8 2 0.44% 9 9 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%
n = numel(Y); K = numel(unique(Y));
Несколько классов не представлены в данных, и многие из других классов имеют низкие относительные частоты.
Задайте шаблон приобретения знаний ансамблем, который использует метод GentleBoost и 50 слабых учеников дерева классификации.
t = templateEnsemble('GentleBoost',50,'Tree');
t
является объектом шаблона. Большинство опций пусто ([]
). Программное обеспечение использует значения по умолчанию для всех пустых опций во время обучения.
Поскольку переменная отклика содержит много классов, задайте разреженный случайный проект кодирования.
rng(1); % For reproducibility Coding = designecoc(K,'sparserandom');
Обучите и перекрестный подтвердите модель ECOC с помощью параллельных вычислений. Подходящие апостериорные вероятности (возвращенный kfoldPredict
).
pool = parpool; % Invokes workers
Starting parallel pool (parpool) using the 'local' profile ... connected to 6 workers.
options = statset('UseParallel',1); CVMdl = fitcecoc(X,Y,'Learner',t,'Options',options,'Coding',Coding,... 'FitPosterior',1,'CrossVal','on');
Warning: One or more folds do not contain points from all the groups.
CVMdl
является моделью ClassificationPartitionedECOC
. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Можно задать различное количество сгибов с помощью аргумента пары "имя-значение" 'KFold'
.
Пул вызывает шесть рабочих, несмотря на то, что количество рабочих может отличаться среди систем. Поскольку некоторые классы имеют низкую относительную частоту, один или несколько сгибов, скорее всего, не содержат наблюдения от всех классов.
Оцените апостериорные вероятности и отобразите апостериорную вероятность того, чтобы быть классифицированным как то, чтобы не давать аритмии (класса 1) данные для случайного набора наблюдений сгиба валидации.
[~,~,~,posterior] = kfoldPredict(CVMdl,'Options',options); idx = randsample(n,10); table(idx,Y(idx),posterior(idx,1),... 'VariableNames',{'OOFSampleIndex','TrueLabel','PosteriorNoArrhythmia'})
ans=10×3 table
OOFSampleIndex TrueLabel PosteriorNoArrhythmia
______________ _________ _____________________
171 1 0.33654
221 1 0.85135
72 16 0.9174
3 10 0.025649
202 1 0.8438
243 1 0.9435
18 1 0.81198
49 6 0.090154
234 1 0.61625
315 1 0.97187
CVMdl
— Перекрестная подтвержденная модель ECOCClassificationPartitionedECOC
Перекрестная подтвержденная модель ECOC, заданная как модель ClassificationPartitionedECOC
. Можно создать модель ClassificationPartitionedECOC
двумя способами:
Передайте обученную модель ECOC (ClassificationECOC
) crossval
.
Обучите модель ECOC с помощью fitcecoc
и задайте любой из этих аргументов пары "имя-значение" перекрестной проверки: 'CrossVal'
, 'CVPartition'
, 'Holdout'
, 'KFold'
или 'Leaveout'
.
Укажите необязательные аргументы в виде пар ""имя, значение"", разделенных запятыми.
Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение.
Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.
kfoldPredict(CVMdl,'PosteriorMethod','qp')
задает, чтобы оценить апостериорные вероятности мультикласса путем решения задачи наименьших квадратов с помощью квадратичного программирования.'BinaryLoss'
— Бинарная функция потерь ученика'hamming'
| 'linear'
| 'logit'
| 'exponential'
| 'binodeviance'
| 'hinge'
| 'quadratic'
| указатель на функциюБинарная функция потерь ученика, заданная как пара, разделенная запятой, состоящая из 'BinaryLoss'
и встроенного имени функции потерь или указателя на функцию.
Эта таблица описывает встроенные функции, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j, и g (yj, sj) является бинарной формулой потерь.
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери так, чтобы потеря была 0.5 когда yj = 0. Кроме того, программное обеспечение вычисляет среднюю бинарную потерю для каждого класса.
Для пользовательской бинарной функции потерь, например, customFunction
, задают его указатель на функцию 'BinaryLoss',@customFunction
.
customFunction
имеет эту форму:
bLoss = customFunction(M,s)
M
является K-by-L кодирующий матрицу, сохраненную в Mdl.CodingMatrix
.
s
является 1 L вектором - строкой из очков классификации.
bLoss
является потерей классификации. Этот скаляр агрегировал бинарные потери для каждого ученика в конкретном классе. Например, можно использовать среднюю бинарную потерю, чтобы агрегировать потерю по ученикам для каждого класса.
K является количеством классов.
L является количеством бинарных учеников.
Для примера передачи пользовательской бинарной функции потерь смотрите, Предсказывают Демонстрационные Тестом Метки Модели ECOC Используя Пользовательскую Бинарную Функцию потерь.
Значение BinaryLoss
по умолчанию зависит от областей значений счета, возвращенных бинарными учениками. Эта таблица описывает некоторые значения BinaryLoss
по умолчанию на основе данных предположений.
Предположение | Значение по умолчанию |
---|---|
Все бинарные ученики являются SVMs или или линейный или модели классификации ядер учеников SVM. | 'hinge' |
Все бинарные ученики являются ансамблями, обученными AdaboostM1 или GentleBoost . | 'exponential' |
Все бинарные ученики являются ансамблями, обученными LogitBoost . | 'binodeviance' |
Все бинарные ученики линейны или модели классификации ядер учеников логистической регрессии. Или, вы задаете, чтобы предсказать апостериорные вероятности класса установкой 'FitPosterior',true в fitcecoc . | 'quadratic' |
Чтобы проверять значение по умолчанию, используйте запись через точку, чтобы отобразить свойство BinaryLoss
обученной модели в командной строке.
Пример: 'BinaryLoss','binodeviance'
Типы данных: char
| string
| function_handle
'Decoding'
— Decoding'lossweighted'
(значение по умолчанию) | 'lossbased'
Схема Decoding, которая агрегировала бинарные потери, заданные как пара, разделенная запятой, состоящая из 'Decoding'
и 'lossweighted'
или 'lossbased'
. Для получения дополнительной информации смотрите Бинарную Потерю.
Пример: 'Decoding','lossbased'
'NumKLInitializations'
— Количество случайных начальных значений0
(значение по умолчанию) | неотрицательный целочисленный скалярКоличество случайных начальных значений для подбора кривой апостериорным вероятностям минимизацией расхождения Kullback-Leibler, заданной как пара, разделенная запятой, состоящая из 'NumKLInitializations'
и неотрицательного целочисленного скаляра.
Если вы не запрашиваете четвертый выходной аргумент (Posterior
) и устанавливаете 'PosteriorMethod','kl'
(значение по умолчанию), то программное обеспечение игнорирует значение NumKLInitializations
.
Для получения дополнительной информации смотрите, что Следующая Оценка Использует Расхождение Kullback-Leibler.
Пример: 'NumKLInitializations',5
Типы данных: single | double
Опции
Опции оценки[]
(значение по умолчанию) | массив структур, возвращенный statset
Опции оценки, заданные как пара, разделенная запятой, состоящая из 'Options'
и массива структур, возвращенного statset
.
Вызвать параллельные вычисления:
Вам нужна лицензия Parallel Computing Toolbox™.
Задайте 'Options',statset('UseParallel',true)
.
'PosteriorMethod'
— Метод оценки апостериорной вероятности'kl'
(значение по умолчанию) | 'qp'
Метод оценки апостериорной вероятности, заданный как пара, разделенная запятой, состоящая из 'PosteriorMethod'
и 'kl'
или 'qp'
.
Если PosteriorMethod
является 'kl'
, то программное обеспечение оценивает апостериорные вероятности мультикласса путем минимизации расхождения Kullback-Leibler между предсказанными и ожидаемыми апостериорными вероятностями, возвращенными бинарными учениками. Для получения дополнительной информации смотрите, что Следующая Оценка Использует Расхождение Kullback-Leibler.
Если PosteriorMethod
является 'qp'
, то программное обеспечение оценивает апостериорные вероятности мультикласса путем решения задачи наименьших квадратов с помощью квадратичного программирования. Вам нужна лицензия Optimization Toolbox™, чтобы использовать эту опцию. Для получения дополнительной информации смотрите, что Следующая Оценка Использует Квадратичное программирование.
Если вы не запрашиваете четвертый выходной аргумент (Posterior
), то программное обеспечение игнорирует значение PosteriorMethod
.
Пример: 'PosteriorMethod','qp'
'Verbose'
— Уровень многословия0
(значение по умолчанию) | 1
Уровень многословия, заданный как пара, разделенная запятой, состоящая из 'Verbose'
и 0
или 1
. Verbose
управляет количеством диагностических сообщений, что программное обеспечение отображается в Командном окне.
Если Verbose
является 0
, то программное обеспечение не отображает диагностические сообщения. В противном случае программное обеспечение отображает диагностические сообщения.
Пример: 'Verbose',1
Типы данных: single | double
метка
Предсказанные метки классаПредсказанные метки класса, возвращенные как категориальное или символьный массив, логический или числовой вектор или массив ячеек из символьных векторов.
label
имеет совпадающий тип данных и количество строк как CVMdl.Y
.
Программное обеспечение предсказывает классификацию наблюдения путем присвоения наблюдения классу, приводящему к самой большой отрицаемой средней бинарной потере (или, эквивалентно, самой маленькой средней бинарной потере).
NegLoss
— Отрицаемые средние бинарные потериОтрицаемые средние бинарные потери, возвращенные как числовая матрица. NegLoss
является n-by-K матрица, где n является количеством наблюдений (size(CVMdl.X,1)
), и K является количеством уникальных классов (size(CVMdl.ClassNames,1)
).
PBScore
— Очки положительного классаМузыка положительного класса к каждому бинарному ученику, возвращенному как числовая матрица. PBScore
является n-by-L матрица, где n является количеством наблюдений (size(CVMdl.X,1)
), и L является количеством бинарных учеников (size(CVMdl.CodingMatrix,2)
).
Если матрица кодирования отличается через сгибы (то есть, схемой кодирования является sparserandom
или denserandom
), то PBScore
пуст ([]
).
Posterior
— Следующие вероятности классаСледующие вероятности класса, возвращенные как числовая матрица. Posterior
является n-by-K матрица, где n является количеством наблюдений (size(CVMdl.X,1)
), и K является количеством уникальных классов (size(CVMdl.ClassNames,1)
).
Необходимо установить 'FitPosterior',1
когда обучение перекрестная подтвержденная модель ECOC с помощью fitcecoc
в порядке запросить Posterior
. В противном случае программное обеспечение выдает ошибку.
binary loss является функцией класса и счета классификации, который определяет, как хорошо бинарный ученик классифицирует наблюдение в класс.
Предположим следующее:
mkj является элементом (k, j) проекта кодирования матричный M (то есть, код, соответствующий классу k бинарного ученика j).
sj является счетом бинарного ученика j для наблюдения.
g является бинарной функцией потерь.
предсказанный класс для наблюдения.
В loss-based decoding [Escalera и др.], класс, производящий минимальную сумму бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
В loss-weighted decoding [Escalera и др.], класс, производящий минимальное среднее значение бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
Allwein и др. предполагают, что взвешенное потерей декодирование улучшает точность классификации путем хранения значений потерь для всех классов в том же динамическом диапазоне.
Эта таблица суммирует поддерживаемые функции потерь, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j и g (yj, sj).
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери, таким образом, что потеря 0.5, когда yj = 0, и агрегировал использование среднего значения бинарных учеников [Allwein и др.].
Не путайте бинарную потерю с полной потерей классификации (заданный аргументом пары "имя-значение" 'LossFun'
функций объекта loss
и predict
), который измеряется, как хорошо классификатор ECOC выполняет в целом.
Программное обеспечение может оценить апостериорные вероятности класса путем минимизации расхождения Kullback-Leibler или при помощи квадратичного программирования. Для следующих описаний следующих алгоритмов оценки примите что:
mkj является элементом (k, j) проекта кодирования матричный M.
I является функцией индикатора.
оценка апостериорной вероятности класса для класса k наблюдения, k = 1..., K.
rj является апостериорной вероятностью положительного класса для бинарного ученика j. Таким образом, rj является вероятностью, что бинарный ученик j классифицирует наблюдение в положительный класс, учитывая данные тренировки.
По умолчанию программное обеспечение минимизирует расхождение Kullback-Leibler, чтобы оценить апостериорные вероятности класса. Расхождение Kullback-Leibler между ожидаемыми и наблюдаемыми апостериорными вероятностями положительного класса
где вес для бинарного ученика j.
Sj является набором индексов наблюдения, на котором бинарном ученике обучен j.
вес наблюдения i.
Программное обеспечение минимизирует расхождение итеративно. Первый шаг должен выбрать начальные значения для апостериорных вероятностей класса.
Если вы не задаете 'NumKLIterations'
, то программное обеспечение пробует оба набора детерминированных начальных значений, описанных затем, и выбирает набор, который минимизирует Δ.
решение системы
где M 01 является M со всем mkj = –1 замененный с 0, и r является вектором апостериорных вероятностей положительного класса, возвращенных двоичными учениками L [Dietterich и др.]. Программное обеспечение использует lsqnonneg
, чтобы решить систему.
Если вы задаете 'NumKLIterations',c
, где c
является натуральным числом, то программное обеспечение делает следующее, чтобы выбрать набор , и выбирает набор, который минимизирует Δ.
Программное обеспечение пробует оба набора детерминированных начальных значений, как описано ранее.
Программное обеспечение случайным образом генерирует векторы c
длины K с помощью rand
, и затем нормирует каждый вектор, чтобы суммировать к 1.
В итерации t программное обеспечение завершает эти шаги:
Вычислить
Оцените использование апостериорной вероятности следующего класса
Нормировать так, чтобы они суммировали к 1.
Проверяйте на сходимость.
Для получения дополнительной информации смотрите [Hastie и др.] и [Zadrozny].
Оценка апостериорной вероятности с помощью квадратичного программирования требует лицензии Optimization Toolbox. Чтобы оценить апостериорные вероятности для наблюдения с помощью этого метода, программное обеспечение завершает эти шаги:
Оцените апостериорные вероятности положительного класса, rj, для бинарных учеников j = 1..., L.
Используя отношение между rj и [Ву и др.], минимизировать
относительно и ограничения
Программное обеспечение выполняет минимизацию с помощью quadprog
.
[1] Allwein, E., Р. Шапайр и И. Зингер. “Уменьшая мультикласс до двоичного файла: подход объединения для поля classifiers”. Журнал Исследования Машинного обучения. Издание 1, 2000, стр 113–141.
[2] Dietterich, T. и Г. Бакири. “Решая проблемы Изучения Мультикласса С помощью Выходных Кодов С коррекцией ошибок”. Журнал Исследования Искусственного интеллекта. Издание 2, 1995, стр 263–286.
[3] Escalera, S., О. Пуджол и П. Радева. “На процессе декодирования в троичных выходных кодах с коррекцией ошибок”. Транзакции IEEE согласно Анализу Шаблона и Искусственному интеллекту. Издание 32, Выпуск 7, 2010, стр 120–134.
[4] Escalera, S., О. Пуджол и П. Радева. “Отделимость троичных кодов для разреженных проектов выходных кодов с коррекцией ошибок”. Шаблон Recogn. Издание 30, Выпуск 3, 2009, стр 285–297.
[5] Hastie, T. и Р. Тибширэни. “Классификация Попарной Связью”. Летопись Статистики. Издание 26, Выпуск 2, 1998, стр 451–471.
[6] Ву, T. F. К. Дж. Лин и Р. Вэн. “Оценки вероятности для Классификации Мультиклассов Попарной Связью”. Журнал Исследования Машинного обучения. Издание 5, 2004, стр 975–1005.
[7] Zadrozny, B. “Уменьшая Мультикласс до Двоичного файла путем Связи Оценок Вероятности”. NIPS 2001: Продолжения Усовершенствований в Нейронных Системах обработки информации 14, 2001, стр 1041–1048.
Чтобы запуститься параллельно, установите опцию 'UseParallel'
на true
.
Установите поле 'UseParallel'
структуры опций к true
с помощью statset
и задайте аргумент пары "имя-значение" 'Options'
в вызове этой функции.
Например: 'Options',statset('UseParallel',true)
Для получения дополнительной информации смотрите аргумент пары "имя-значение" 'Options'
.
Для более общей информации о параллельных вычислениях смотрите функции MATLAB Выполнения с Автоматической Параллельной Поддержкой (Parallel Computing Toolbox).
ClassificationECOC
| ClassificationPartitionedECOC
| edge
| fitcecoc
| predict
| quadprog
| statset
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.