Классифицируйте наблюдения с помощью модели выходных кодов с коррекцией ошибок (ECOC) мультикласса
дополнительные опции использования заданы одним или несколькими аргументами пары "имя-значение". Например, можно задать метод оценки апостериорной вероятности, декодируя схему и уровень многословия.label
= predict(Mdl
,X
,Name,Value
)
[
использование любая из комбинаций входных аргументов в предыдущих синтаксисах и дополнительно возвращается: label
,NegLoss
,PBScore
]
= predict(___)
Массив отрицаемых средних бинарных потерь (NegLoss
). Для каждого наблюдения в X
, predict
присваивает метку класса, дающего к самой большой отрицаемой средней бинарной потере (или, эквивалентно, самой маленькой средней бинарной потере).
Массив баллов положительного класса (PBScore
) для наблюдений, классифицированных каждым бинарным учеником.
[
дополнительно возвращает следующие оценки вероятности класса для наблюдений (label
,NegLoss
,PBScore
,Posterior
]
= predict(___)Posterior
).
Чтобы получить следующие вероятности класса, необходимо установить 'FitPosterior',true
когда обучение использование модели ECOC fitcecoc
. В противном случае, predict
выдает ошибку.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
, данные об ответе Y
, и порядок классов в Y
.
load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); rng(1); % For reproducibility
Обучите модель ECOC с помощью двоичных классификаторов SVM. Задайте 30%-ю выборку затяжки, стандартизируйте предикторы с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',true); PMdl = fitcecoc(X,Y,'Holdout',0.30,'Learners',t,'ClassNames',classOrder); Mdl = PMdl.Trained{1}; % Extract trained, compact classifier
PMdl
ClassificationPartitionedECOC
модель. Это имеет свойство Trained
, массив ячеек 1 на 1, содержащий CompactClassificationECOC
модель, что программное обеспечение обучило использование набора обучающих данных.
Предскажите демонстрационные тестом метки. Распечатайте случайное подмножество истины и предсказанных меток.
testInds = test(PMdl.Partition); % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); labels = predict(Mdl,XTest); idx = randsample(sum(testInds),10); table(YTest(idx),labels(idx),... 'VariableNames',{'TrueLabels','PredictedLabels'})
ans=10×2 table
TrueLabels PredictedLabels
__________ _______________
setosa setosa
versicolor virginica
setosa setosa
virginica virginica
versicolor versicolor
setosa setosa
virginica virginica
virginica virginica
setosa setosa
setosa setosa
Mdl
правильно метки все кроме одного из демонстрационных тестом наблюдений с индексами idx
.
Загрузите ирисовый набор данных Фишера. Задайте данные о предикторе X
, данные об ответе Y
, и порядок классов в Y
.
load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order rng(1); % For reproducibility
Обучите модель ECOC с помощью двоичных классификаторов SVM и задайте 30%-ю выборку затяжки. Стандартизируйте предикторы с помощью шаблона SVM и задайте порядок класса.
t = templateSVM('Standardize',true); PMdl = fitcecoc(X,Y,'Holdout',0.30,'Learners',t,'ClassNames',classOrder); Mdl = PMdl.Trained{1}; % Extract trained, compact classifier
PMdl
ClassificationPartitionedECOC
модель. Это имеет свойство Trained
, массив ячеек 1 на 1, содержащий CompactClassificationECOC
модель, что программное обеспечение обучило использование набора обучающих данных.
Баллы SVM являются подписанными расстояниями от наблюдения до контура решения. Поэтому область. Создайте пользовательскую бинарную функцию потерь, которая делает следующее:
Сопоставьте матрицу (M) проекта кодирования и классификационные оценки (оценки) положительного класса для каждого ученика к бинарной потере для каждого наблюдения.
Используйте линейную потерю.
Агрегируйте бинарную утрату ученика с помощью медианы.
Можно создать отдельную функцию для бинарной функции потерь, и затем сохранить ее на пути MATLAB®. Или, можно задать анонимную бинарную функцию потерь. В этом случае создайте указатель на функцию (customBL
) к анонимной бинарной функции потерь.
customBL = @(M,s) median(1 - bsxfun(@times,M,s),2,'omitnan')/2;
Предскажите демонстрационные тестом метки и оцените среднюю бинарную потерю в классе. Распечатайте средние отрицательные бинарные потери в классе для случайного набора 10 демонстрационных тестом наблюдений.
testInds = test(PMdl.Partition); % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); [label,NegLoss] = predict(Mdl,XTest,'BinaryLoss',customBL); idx = randsample(sum(testInds),10); classOrder
classOrder = 3x1 categorical
setosa
versicolor
virginica
table(YTest(idx),label(idx),NegLoss(idx,:),'VariableNames',... {'TrueLabel','PredictedLabel','NegLoss'})
ans=10×3 table
TrueLabel PredictedLabel NegLoss
__________ ______________ __________________________________
setosa versicolor 0.1858 1.9877 -3.6735
versicolor virginica -1.3315 -0.12343 -0.045018
setosa versicolor 0.13891 1.9262 -3.5651
virginica virginica -1.513 -0.38289 0.39594
versicolor versicolor -0.87221 0.74785 -1.3756
setosa versicolor 0.48413 1.997 -3.9811
virginica virginica -1.936 -0.6755 1.1115
virginica virginica -1.5786 -0.83372 0.91236
setosa versicolor 0.51027 2.1206 -4.1309
setosa versicolor 0.36128 2.0594 -3.9207
Порядок столбцов соответствует элементам classOrder
. Программное обеспечение предсказывает метку на основе максимальной отрицаемой потери. Результаты показывают, что медиана линейных потерь не может выполнить, а также другие потери.
Обучите классификатор ECOC с помощью двоичных учеников SVM. Сначала предскажите метки обучающей выборки и апостериорные вероятности класса. Затем предскажите максимальную апостериорную вероятность класса в каждой точке в сетке. Визуализируйте результаты.
Загрузите ирисовый набор данных Фишера. Задайте лепестковые размерности как предикторы и имена разновидностей как ответ.
load fisheriris X = meas(:,3:4); Y = species; rng(1); % For reproducibility
Создайте шаблон SVM. Стандартизируйте предикторы и задайте Гауссово ядро.
t = templateSVM('Standardize',true,'KernelFunction','gaussian');
t
шаблон SVM. Большинство его свойств пусто. Когда программное обеспечение обучает классификатор ECOC, оно устанавливает применимые свойства на их значения по умолчанию.
Обучите классификатор ECOC с помощью шаблона SVM. Преобразуйте классификационные оценки, чтобы классифицировать апостериорные вероятности (которые возвращены predict
или resubPredict
) использование 'FitPosterior'
аргумент пары "имя-значение". Задайте порядок класса с помощью 'ClassNames'
аргумент пары "имя-значение". Отобразите диагностические сообщения во время обучения при помощи 'Verbose'
аргумент пары "имя-значение".
Mdl = fitcecoc(X,Y,'Learners',t,'FitPosterior',true,... 'ClassNames',{'setosa','versicolor','virginica'},... 'Verbose',2);
Training binary learner 1 (SVM) out of 3 with 50 negative and 50 positive observations. Negative class indices: 2 Positive class indices: 1 Fitting posterior probabilities for learner 1 (SVM). Training binary learner 2 (SVM) out of 3 with 50 negative and 50 positive observations. Negative class indices: 3 Positive class indices: 1 Fitting posterior probabilities for learner 2 (SVM). Training binary learner 3 (SVM) out of 3 with 50 negative and 50 positive observations. Negative class indices: 3 Positive class indices: 2 Fitting posterior probabilities for learner 3 (SVM).
Mdl
ClassificationECOC
модель. Тот же шаблон SVM применяется к каждому бинарному ученику, но можно настроить опции для каждого бинарного ученика путем передачи в векторе ячейки из шаблонов.
Предскажите метки обучающей выборки и апостериорные вероятности класса. Отобразите диагностические сообщения во время расчета меток и апостериорных вероятностей класса при помощи 'Verbose'
аргумент пары "имя-значение".
[label,~,~,Posterior] = resubPredict(Mdl,'Verbose',1);
Predictions from all learners have been computed. Loss for all observations has been computed. Computing posterior probabilities...
Mdl.BinaryLoss
ans = 'quadratic'
Программное обеспечение присваивает наблюдение классу, который дает к самой маленькой средней бинарной потере. Поскольку все бинарные ученики вычисляют апостериорные вероятности, бинарной функцией потерь является quadratic
.
Отобразите случайный набор результатов.
idx = randsample(size(X,1),10,1); Mdl.ClassNames
ans = 3x1 cell
{'setosa' }
{'versicolor'}
{'virginica' }
table(Y(idx),label(idx),Posterior(idx,:),... 'VariableNames',{'TrueLabel','PredLabel','Posterior'})
ans=10×3 table
TrueLabel PredLabel Posterior
______________ ______________ ______________________________________
{'virginica' } {'virginica' } 0.0039319 0.0039866 0.99208
{'virginica' } {'virginica' } 0.017066 0.018262 0.96467
{'virginica' } {'virginica' } 0.014947 0.015855 0.9692
{'versicolor'} {'versicolor'} 2.2197e-14 0.87318 0.12682
{'setosa' } {'setosa' } 0.999 0.00025091 0.00074639
{'versicolor'} {'virginica' } 2.2195e-14 0.059427 0.94057
{'versicolor'} {'versicolor'} 2.2194e-14 0.97002 0.029984
{'setosa' } {'setosa' } 0.999 0.0002499 0.00074741
{'versicolor'} {'versicolor'} 0.0085638 0.98259 0.0088482
{'setosa' } {'setosa' } 0.999 0.00025013 0.00074718
Столбцы Posterior
соответствуйте порядку класса Mdl.ClassNames
.
Задайте сетку значений на наблюдаемом пробеле предиктора. Предскажите апостериорные вероятности для каждого экземпляра в сетке.
xMax = max(X); xMin = min(X); x1Pts = linspace(xMin(1),xMax(1)); x2Pts = linspace(xMin(2),xMax(2)); [x1Grid,x2Grid] = meshgrid(x1Pts,x2Pts); [~,~,~,PosteriorRegion] = predict(Mdl,[x1Grid(:),x2Grid(:)]);
Для каждой координаты на сетке постройте максимальную апостериорную вероятность класса среди всех классов.
contourf(x1Grid,x2Grid,... reshape(max(PosteriorRegion,[],2),size(x1Grid,1),size(x1Grid,2))); h = colorbar; h.YLabel.String = 'Maximum posterior'; h.YLabel.FontSize = 15; hold on gh = gscatter(X(:,1),X(:,2),Y,'krk','*xd',8); gh(2).LineWidth = 2; gh(3).LineWidth = 2; title('Iris Petal Measurements and Maximum Posterior') xlabel('Petal length (cm)') ylabel('Petal width (cm)') axis tight legend(gh,'Location','NorthWest') hold off
Этот пример использует:
Обучите мультикласс модель ECOC и оцените апостериорные вероятности с помощью параллельных вычислений.
Загрузите arrhythmia
набор данных. Исследуйте данные об ответе Y
, и определите количество классов.
load arrhythmia
Y = categorical(Y);
tabulate(Y)
Value Count Percent 1 245 54.20% 2 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 7 3 0.66% 8 2 0.44% 9 9 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 22 4.87%
K = numel(unique(Y));
Несколько классов не представлены в данных, и многие из других классов имеют низкие относительные частоты.
Задайте шаблон приобретения знаний ансамблем, который использует метод GentleBoost и 50 слабых учеников дерева классификации.
t = templateEnsemble('GentleBoost',50,'Tree');
t
объект шаблона. Большинство его свойств пусто ([]
). Программное обеспечение использует значения по умолчанию для всех пустых свойств во время обучения.
Поскольку переменная отклика содержит много классов, задайте разреженный случайный проект кодирования.
rng(1); % For reproducibility Coding = designecoc(K,'sparserandom');
Обучите модель ECOC с помощью параллельных вычислений. Задайте 15%-ю выборку затяжки и соответствуйте апостериорным вероятностям.
pool = parpool; % Invokes workers
Starting parallel pool (parpool) using the 'local' profile ... Connected to the parallel pool (number of workers: 6).
options = statset('UseParallel',true); PMdl = fitcecoc(X,Y,'Learner',t,'Options',options,'Coding',Coding,... 'FitPosterior',true,'Holdout',0.15); Mdl = PMdl.Trained{1}; % Extract trained, compact classifier
PMdl
ClassificationPartitionedECOC
модель. Это имеет свойство Trained
, массив ячеек 1 на 1, содержащий CompactClassificationECOC
модель, что программное обеспечение обучило использование набора обучающих данных.
Пул вызывает шесть рабочих, несмотря на то, что количество рабочих может варьироваться среди систем.
Оцените апостериорные вероятности и отобразите апостериорную вероятность того, чтобы быть классифицированным как то, чтобы не давать аритмии (класса 1) данные для случайного набора демонстрационных тестом наблюдений.
testInds = test(PMdl.Partition); % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); [~,~,~,posterior] = predict(Mdl,XTest,'Options',options); idx = randsample(sum(testInds),10); table(idx,YTest(idx),posterior(idx,1),... 'VariableNames',{'TestSampleIndex','TrueLabel','PosteriorNoArrhythmia'})
ans=10×3 table
TestSampleIndex TrueLabel PosteriorNoArrhythmia
_______________ _________ _____________________
11 6 0.60631
41 4 0.23674
51 2 0.13802
33 10 0.43831
12 1 0.94332
8 1 0.97278
37 1 0.62807
24 10 0.96876
56 16 0.29375
30 1 0.64512
Mdl
— Полный или компактный мультикласс модель ECOCClassificationECOC
объект модели | CompactClassificationECOC
объект моделиПолный или компактный мультикласс модель ECOC в виде ClassificationECOC
или CompactClassificationECOC
объект модели.
Чтобы создать полную или компактную модель ECOC, смотрите ClassificationECOC
или CompactClassificationECOC
.
X
— Данные о предикторе, которые будут классифицированыДанные о предикторе, которые будут классифицированы в виде числовой матрицы или таблицы.
По умолчанию, каждая строка X
соответствует одному наблюдению, и каждый столбец соответствует одной переменной.
Для числовой матрицы:
Переменные, которые составляют столбцы X
должен иметь тот же порядок как переменные предикторы, которые обучают Mdl
.
Если вы обучаете Mdl
с помощью таблицы (например, Tbl
), затем X
может быть числовая матрица если Tbl
содержит все числовые переменные предикторы. Обрабатывать числовые предикторы в Tbl
как категориальные во время обучения, идентифицируйте категориальные предикторы с помощью CategoricalPredictors
аргумент пары "имя-значение" fitcecoc
. Если Tbl
содержит неоднородные переменные предикторы (например, типы числовых и категориальных данных) и X
числовая матрица, затем predict
выдает ошибку.
Для таблицы:
predict
не поддерживает многостолбцовые переменные и массивы ячеек кроме массивов ячеек из символьных векторов.
Если вы обучаете Mdl
с помощью таблицы (например, Tbl
), затем все переменные предикторы в X
должен иметь те же имена переменных и типы данных как переменные предикторы, которые обучают Mdl
(сохраненный в Mdl.PredictorNames
). Однако порядок следования столбцов X
не должен соответствовать порядку следования столбцов Tbl
. Оба Tbl
и X
может содержать дополнительные переменные (переменные отклика, веса наблюдения, и так далее), но predict
игнорирует их.
Если вы обучаете Mdl
с помощью числовой матрицы затем предиктор называет в Mdl.PredictorNames
и соответствующий переменный предиктор называет в X
должно быть то же самое. Чтобы задать имена предиктора во время обучения, смотрите PredictorNames
аргумент пары "имя-значение" fitcecoc
. Все переменные предикторы в X
должны быть числовые векторы. X
может содержать дополнительные переменные (переменные отклика, веса наблюдения, и так далее), но predict
игнорирует их.
Примечание
Если Mdl.BinaryLearners
содержит линейные модели классификации (ClassificationLinear
), затем можно ориентировать матрицу предиктора так, чтобы наблюдения соответствовали столбцам и задали 'ObservationsIn','columns'
. Однако вы не можете задать 'ObservationsIn','columns'
для данных о предикторе в таблице.
Когда учебный Mdl
, примите, что вы устанавливаете 'Standardize',true
для объекта шаблона, заданного в 'Learners'
аргумент пары "имя-значение" fitcecoc
. В этом случае, для соответствующего бинарного ученика j
, программное обеспечение стандартизирует столбцы новых данных о предикторе с помощью соответствующих средних значений в Mdl.BinaryLearner{j}.Mu
и стандартные отклонения в Mdl.BinaryLearner{j}.Sigma
.
Типы данных: table
| double
| single
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
predict(Mdl,X,'BinaryLoss','quadratic','Decoding','lossbased')
задает квадратичную бинарную функцию потерь ученика и основанную на потере схему декодирования агрегации бинарных потерь.'BinaryLoss'
— Бинарная функция потерь ученика'hamming'
| 'linear'
| 'logit'
| 'exponential'
| 'binodeviance'
| 'hinge'
| 'quadratic'
| указатель на функциюБинарная функция потерь ученика в виде разделенной запятой пары, состоящей из 'BinaryLoss'
и встроенное имя функции потерь или указатель на функцию.
Эта таблица описывает встроенные функции, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j, и g (yj, sj) является бинарной формулой потерь.
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери так, чтобы потеря была 0.5 когда yj = 0. Кроме того, программное обеспечение вычисляет среднюю бинарную потерю для каждого класса.
Для пользовательской бинарной функции потерь, например, customFunction
, задайте его указатель на функцию 'BinaryLoss',@customFunction
.
customFunction
имеет эту форму:
bLoss = customFunction(M,s)
M
K-by-L кодирующий матрицу, сохраненную в Mdl.CodingMatrix
.
s
1 L вектором-строкой из классификационных оценок.
bLoss
потеря классификации. Этот скаляр агрегировал бинарные потери для каждого ученика в конкретном классе. Например, можно использовать среднюю бинарную потерю, чтобы агрегировать потерю по ученикам для каждого класса.
K является количеством классов.
L является количеством бинарных учеников.
Для примера передачи пользовательской бинарной функции потерь смотрите, Предсказывают Демонстрационные Тестом Метки Модели ECOC Используя Пользовательскую Бинарную Функцию потерь.
BinaryLoss
по умолчанию значение зависит от областей значений счета, возвращенных бинарными учениками. Эта таблица описывает некоторый
BinaryLoss
по умолчанию значения на основе данных предположений.
Предположение | Значение по умолчанию |
---|---|
Все бинарные ученики являются SVMs или или линейный или модели классификации ядер учеников SVM. | 'hinge' |
Все бинарные ученики являются ансамблями, обученными AdaboostM1 или GentleBoost . | 'exponential' |
Все бинарные ученики являются ансамблями, обученными LogitBoost . | 'binodeviance' |
Все бинарные ученики линейны или модели классификации ядер учеников логистической регрессии. Или, вы задаете, чтобы предсказать апостериорные вероятности класса установкой 'FitPosterior',true \in fitcecoc . | 'quadratic' |
Чтобы проверять значение по умолчанию, используйте запись через точку, чтобы отобразить BinaryLoss
свойство обученной модели в командной строке.
Пример: 'BinaryLoss','binodeviance'
Типы данных: char |
string
| function_handle
'Decoding'
— Схема Decoding'lossweighted'
(значение по умолчанию) | 'lossbased'
Схема Decoding, которая агрегировала бинарные потери в виде разделенной запятой пары, состоящей из 'Decoding'
и 'lossweighted'
или 'lossbased'
. Для получения дополнительной информации смотрите Бинарную Потерю.
Пример: 'Decoding','lossbased'
'NumKLInitializations'
— Количество случайных начальных значений
(значение по умолчанию) | неотрицательный целочисленный скалярКоличество случайных начальных значений для подбора кривой апостериорным вероятностям минимизацией расхождения Kullback-Leibler в виде разделенной запятой пары, состоящей из 'NumKLInitializations'
и неотрицательный целочисленный скаляр.
Если вы не запрашиваете четвертый выходной аргумент (Posterior
) и набор 'PosteriorMethod','kl'
(значение по умолчанию), затем программное обеспечение игнорирует значение NumKLInitializations
.
Для получения дополнительной информации смотрите, что Следующая Оценка Использует Расхождение Kullback-Leibler.
Пример: 'NumKLInitializations',5
Типы данных: single
| double
'ObservationsIn'
— Размерность наблюдения данных о предикторе'rows'
(значение по умолчанию) | 'columns'
Размерность наблюдения данных о предикторе в виде разделенной запятой пары, состоящей из 'ObservationsIn'
и 'columns'
или 'rows'
. Mdl.BinaryLearners
должен содержать ClassificationLinear
модели.
Примечание
Если вы ориентируете свою матрицу предиктора так, чтобы наблюдения соответствовали столбцам и задали 'ObservationsIn','columns'
, можно испытать значительное сокращение во время выполнения. Вы не можете задать 'ObservationsIn','columns'
для данных о предикторе в таблице.
'Options'
— Опции оценки[]
(значение по умолчанию) | массив структур, возвращенный statset
Опции оценки в виде разделенной запятой пары, состоящей из 'Options'
и массив структур, возвращенный statset
.
Вызвать параллельные вычисления:
Вам нужна лицензия Parallel Computing Toolbox™.
Задайте 'Options',statset('UseParallel',true)
.
'PosteriorMethod'
— Метод оценки апостериорной вероятности'kl'
(значение по умолчанию) | 'qp'
Метод оценки апостериорной вероятности в виде разделенной запятой пары, состоящей из 'PosteriorMethod'
и 'kl'
или 'qp'
.
Если PosteriorMethod
'kl'
, затем программное обеспечение оценивает апостериорные вероятности мультикласса путем минимизации расхождения Kullback-Leibler между предсказанными и ожидаемыми апостериорными вероятностями, возвращенными бинарными учениками. Для получения дополнительной информации смотрите, что Следующая Оценка Использует Расхождение Kullback-Leibler.
Если PosteriorMethod
'qp'
, затем программное обеспечение оценивает апостериорные вероятности мультикласса путем решения задачи наименьших квадратов с помощью квадратичного программирования. Вам нужна лицензия Optimization Toolbox™, чтобы использовать эту опцию. Для получения дополнительной информации смотрите, что Следующая Оценка Использует Квадратичное программирование.
Если вы не запрашиваете четвертый выходной аргумент (Posterior
), затем программное обеспечение игнорирует значение PosteriorMethod
.
Пример: 'PosteriorMethod','qp'
'Verbose'
— Уровень многословия
(значение по умолчанию) | 1
Уровень многословия в виде разделенной запятой пары, состоящей из 'Verbose'
и 0
или 1
. Verbose
управляет количеством диагностических сообщений, что программное обеспечение отображается в Командном окне.
Если Verbose
0
, затем программное обеспечение не отображает диагностические сообщения. В противном случае программное обеспечение отображает диагностические сообщения.
Пример: 'Verbose',1
Типы данных: single
| double
label
— Предсказанные метки классаПредсказанные метки класса, возвращенные как категориальное, символ, логический, или числовой массив или массив ячеек из символьных векторов. Программное обеспечение предсказывает классификацию наблюдения путем присвоения наблюдения классу, дающему к самой большой отрицаемой средней бинарной потере (или, эквивалентно, самой маленькой средней бинарной потере).
label
имеет совпадающий тип данных, когда метки класса раньше обучали Mdl
и имеет одинаковое число строк как X
. (Программное обеспечение обрабатывает строковые массивы как массивы ячеек из символьных векторов.)
Если Mdl.BinaryLearners
содержит ClassificationLinear
модели, затем label
m-by-L матрица, где m является количеством наблюдений в X
, и L является количеством сильных мест регуляризации в линейных моделях классификации (numel(Mdl.BinaryLearners{1}.Lambda)
). Значение label(i,j)
предсказанная метка наблюдения i
для модели, обученной с помощью силы регуляризации Mdl.BinaryLearners{1}.Lambda(j)
.
В противном случае, label
вектор-столбец длины m.
NegLoss
— Отрицаемые средние бинарные потериОтрицаемые средние бинарные потери, возвращенные как числовая матрица или массив.
Если Mdl.BinaryLearners
содержит ClassificationLinear
модели, затем NegLoss
m-by-K-by-L массив.
m является количеством наблюдений в X
.
K является количеством отличных классов в обучающих данных (numel(Mdl.ClassNames)
).
L является количеством сильных мест регуляризации в линейных моделях классификации (numel(Mdl.BinaryLearners{1}.Lambda)
).
NegLoss(i,k,j)
отрицаемая средняя бинарная потеря для наблюдения i
, соответствие классу Mdl.ClassNames(k)
, для модели, обученной с помощью силы регуляризации Mdl.BinaryLearners{1}.Lambda(j)
.
В противном случае, NegLoss
m-by-K матрица.
PBScore
— Баллы положительного классаМузыка положительного класса к каждому бинарному ученику, возвращенному как числовая матрица или массив.
Если Mdl.BinaryLearners
содержит ClassificationLinear
модели, затем PBScore
m-by-B-by-L массив.
m является количеством наблюдений в X
.
B является количеством бинарных учеников (numel(Mdl.BinaryLearners)
).
L является количеством сильных мест регуляризации в линейных моделях классификации (numel(Mdl.BinaryLearners{1}.Lambda)
).
PBScore(i,b,j)
счет положительного класса к наблюдению i
, использование бинарного ученика b
, для модели, обученной с помощью силы регуляризации Mdl.BinaryLearners{1}.Lambda(j)
.
В противном случае, PBScore
m-by-B матрица.
Posterior
— Следующие вероятности классаСледующие вероятности класса, возвращенные как числовая матрица или массив.
Если Mdl.BinaryLearners
содержит ClassificationLinear
модели, затем Posterior
m-by-K-by-L массив. Для определений размерности смотрите NegLoss
. Posterior(i,k,j)
апостериорная вероятность то наблюдение i
прибывает из класса Mdl.ClassNames(k)
, для модели, обученной с помощью силы регуляризации Mdl.BinaryLearners{1}.Lambda(j)
.
В противном случае, Posterior
m-by-K матрица.
binary loss является функцией класса и классификационной оценки, которая определяет, как хорошо бинарный ученик классифицирует наблюдение в класс.
Предположим следующее:
mkj является элементом (k, j) проекта кодирования матричный M (то есть, код, соответствующий классу k бинарного ученика j).
sj является счетом бинарного ученика j для наблюдения.
g является бинарной функцией потерь.
предсказанный класс для наблюдения.
В loss-based decoding [Escalera и al.], класс, производящий минимальную сумму бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
В loss-weighted decoding [Escalera и al.], класс, производящий минимальное среднее значение бинарных потерь по бинарным ученикам, определяет предсказанный класс наблюдения, то есть,
Allwein и др. предполагают, что взвешенное потерей декодирование улучшает точность классификации путем хранения значений потерь для всех классов в том же динамическом диапазоне.
Эта таблица суммирует поддерживаемые функции потерь, где yj является меткой класса для конкретного бинарного ученика (в наборе {-1,1,0}), sj является счетом к наблюдению j и g (yj, sj).
Значение | Описание | Область счета | g (yj, sj) |
---|---|---|---|
'binodeviance' | Биномиальное отклонение | (–∞,∞) | журнал [1 + exp (–2yjsj)] / [2log (2)] |
'exponential' | Экспоненциал | (–∞,∞) | exp (–yjsj)/2 |
'hamming' | Хэмминг | [0,1] или (– ∞, ∞) | [1 – знак (yjsj)]/2 |
'hinge' | Стержень | (–∞,∞) | макс. (0,1 – yjsj)/2 |
'linear' | Линейный | (–∞,∞) | (1 – yjsj)/2 |
'logit' | Логистический | (–∞,∞) | журнал [1 + exp (–yjsj)] / [2log (2)] |
'quadratic' | Квадратичный | [0,1] | [1 – yj (2sj – 1)] 2/2 |
Программное обеспечение нормирует бинарные потери, таким образом, что потеря 0.5, когда yj = 0, и агрегировал использование среднего значения бинарных учеников [Allwein и al.].
Не путайте бинарную потерю с полной потерей классификации (заданный 'LossFun'
аргумент пары "имя-значение" loss
и predict
возразите функциям), который измеряется, как хорошо классификатор ECOC выполняет в целом.
Программное обеспечение может оценить апостериорные вероятности класса путем минимизации расхождения Kullback-Leibler или при помощи квадратичного программирования. Для следующих описаний следующих алгоритмов оценки примите что:
mkj является элементом (k, j) проекта кодирования матричный M.
I является функцией индикатора.
оценка апостериорной вероятности класса для класса k наблюдения, k = 1..., K.
rj является апостериорной вероятностью положительного класса для бинарного ученика j. Таким образом, rj является вероятностью, что бинарный ученик j классифицирует наблюдение в положительный класс, учитывая обучающие данные.
По умолчанию программное обеспечение минимизирует расхождение Kullback-Leibler, чтобы оценить апостериорные вероятности класса. Расхождение Kullback-Leibler между ожидаемыми и наблюдаемыми апостериорными вероятностями положительного класса
где вес для бинарного ученика j.
Sj является набором индексов наблюдения, на котором бинарном ученике обучен j.
вес наблюдения i.
Программное обеспечение минимизирует расхождение итеративно. Первый шаг должен выбрать начальные значения для апостериорных вероятностей класса.
Если вы не задаете 'NumKLIterations'
, затем программное обеспечение пробует оба набора детерминированных начальных значений, описанных затем, и выбирает набор, который минимизирует Δ.
решение системы
где M 01 является M со всем mkj = –1 замененный с 0, и r является вектором из апостериорных вероятностей положительного класса, возвращенных двоичными учениками L [Dietterich и al.]. Использование программного обеспечения lsqnonneg
решить систему.
Если вы задаете 'NumKLIterations',c
, где c
натуральное число, затем программное обеспечение делает следующее, чтобы выбрать набор , и выбирает набор, который минимизирует Δ.
Программное обеспечение пробует оба набора детерминированных начальных значений, аналогичных описанному ранее.
Программное обеспечение случайным образом генерирует c
векторы из длины использование K rand
, и затем нормирует каждый вектор, чтобы суммировать к 1.
В итерации t программное обеспечение завершает эти шаги:
Вычислить
Оцените использование апостериорной вероятности следующего класса
Нормировать так, чтобы они суммировали к 1.
Проверяйте на сходимость.
Для получения дополнительной информации смотрите [Hastie и al.] и [Zadrozny].
Оценка апостериорной вероятности с помощью квадратичного программирования требует лицензии Optimization Toolbox. Чтобы оценить апостериорные вероятности для наблюдения с помощью этого метода, программное обеспечение завершает эти шаги:
Оцените апостериорные вероятности положительного класса, rj, для бинарных учеников j = 1..., L.
Используя отношение между rj и [Ву и al.], минимизировать
относительно и ограничения
Программное обеспечение выполняет использование минимизации quadprog
(Optimization Toolbox).
[1] Allwein, E., Р. Шапайр и И. Зингер. “Уменьшая мультикласс до двоичного файла: подход объединения для поля classifiers”. Журнал Исследования Машинного обучения. Издание 1, 2000, стр 113–141.
[2] Dietterich, T. и Г. Бакири. “Решая задачи Изучения Мультикласса С помощью Выходных Кодов С коррекцией ошибок”. Журнал Исследования Искусственного интеллекта. Издание 2, 1995, стр 263–286.
[3] Escalera, S., О. Пуджол и П. Радева. “На процессе декодирования в троичных выходных кодах с коррекцией ошибок”. Транзакции IEEE согласно Анализу Шаблона и Искусственному интеллекту. Издание 32, Выпуск 7, 2010, стр 120–134.
[4] Escalera, S., О. Пуджол и П. Радева. “Отделимость троичных кодов для разреженных проектов выходных кодов с коррекцией ошибок”. Распознавание образов. Издание 30, Выпуск 3, 2009, стр 285–297.
[5] Hastie, T. и Р. Тибширэни. “Классификация Попарной Связью”. Летопись Статистики. Издание 26, Выпуск 2, 1998, стр 451–471.
[6] Ву, T. F. К. Дж. Лин и Р. Вэн. “Оценки вероятности для Классификации Мультиклассов Попарной Связью”. Журнал Исследования Машинного обучения. Издание 5, 2004, стр 975–1005.
[7] Zadrozny, B. “Уменьшая Мультикласс до Двоичного файла путем Связи Оценок Вероятности”. NIPS 2001: Продолжения Усовершенствований в Нейронных Системах обработки информации 14, 2001, стр 1041–1048.
Указания и ограничения по применению:
predict
не поддерживает высокий table
данные, когда Mdl
содержит ядро или линейных бинарных учеников.
Для получения дополнительной информации см. Раздел "Высокие массивы".
Указания и ограничения по применению:
Можно сгенерировать код C/C++ для обоих predict
и update
при помощи кодера configurer. Или, сгенерируйте код только для predict
при помощи saveLearnerForCoder
, loadLearnerForCoder
, и codegen
.
Генерация кода для predict
и update
— Создайте кодер configurer при помощи learnerCoderConfigurer
и затем сгенерируйте код при помощи generateCode
. Затем можно обновить параметры модели в сгенерированном коде, не имея необходимость регенерировать код.
Генерация кода для predict
— Сохраните обученную модель при помощи saveLearnerForCoder
. Задайте функцию точки входа, которая загружает сохраненную модель при помощи loadLearnerForCoder
и вызывает predict
функция. Затем используйте codegen
(MATLAB Coder), чтобы сгенерировать код для функции точки входа.
Можно также сгенерировать код C/C++ с одинарной точностью для predict
. Для генерации кода с одинарной точностью задайте аргумент пары "имя-значение" 'DataType','single'
как дополнительный вход к loadLearnerForCoder
функция.
Эта таблица содержит примечания об аргументах predict
. Аргументы, не включенные в эту таблицу, полностью поддерживаются.
Аргумент | Примечания и ограничения |
---|---|
Mdl | Для указаний и ограничений по применению объекта модели смотрите
Генерацию кода |
X |
|
Posterior | Этот выходной аргумент не поддерживается. |
Аргументы в виде пар имя-значение | Имена в аргументах пары "имя-значение" должны быть константами времени компиляции. |
BinaryLoss |
|
NumKLInitializations | Этот аргумент пары "имя-значение" не поддерживается. |
ObservationsIn | Значение для 'ObservationsIn' аргументом пары "имя-значение" должно быть постоянное время компиляции. Например, чтобы использовать 'ObservationsIn','columns' аргумент пары "имя-значение" в сгенерированном коде, включайте {coder.Constant('ObservationsIn'),coder.Constant('columns')} в -args значение codegen (MATLAB Coder). |
Options | Этот аргумент пары "имя-значение" не поддерживается. |
PosteriorMethod | Этот аргумент пары "имя-значение" не поддерживается. |
Verbose | Если вы планируете сгенерировать файл MEX, не используя кодер configurer, то можно задать Verbose . В противном случае, codegen не поддерживает Verbose . |
Для получения дополнительной информации смотрите Введение в Генерацию кода.
Чтобы запуститься параллельно, установите 'UseParallel'
опция к true
.
Установите 'UseParallel'
поле структуры опций к true
использование statset
и задайте 'Options'
аргумент пары "имя-значение" в вызове этой функции.
Например: 'Options',statset('UseParallel',true)
Для получения дополнительной информации смотрите 'Options'
аргумент пары "имя-значение".
Для более общей информации о параллельных вычислениях смотрите функции MATLAB Запуска с Автоматической Параллельной Поддержкой (Parallel Computing Toolbox).
ClassificationECOC
| CompactClassificationECOC
| fitcecoc
| loss
| resubPredict
| statset
| quadprog
(Optimization Toolbox)
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.