edge

Найдите ребро классификации для классификатора машины опорных векторов (SVM)

Описание

e = edge(SVMModel,TBL,ResponseVarName) возвращает ребро классификации (e) для классификатора машины опорных векторов (SVM) SVMModel использование данных о предикторе в таблице TBL и класс помечает в TBL.ResponseVarName.

Ребро классификации (e) скалярное значение, которое представляет взвешенное среднее полей классификации.

e = edge(SVMModel,TBL,Y) возвращает ребро классификации (e) для классификатора SVM SVMModel использование данных о предикторе в таблице TBL и класс помечает в Y.

пример

e = edge(SVMModel,X,Y) возвращает ребро классификации для SVMModel использование данных о предикторе в матричном X и класс помечает в Y.

пример

e = edge(___,'Weights',weights) вычисляет ребро классификации для весов наблюдения, предоставленных в weights использование любого из входных параметров в предыдущих синтаксисах.

Примеры

свернуть все

Загрузите ionosphere набор данных.

load ionosphere
rng(1); % For reproducibility

Обучите классификатор SVM. Задайте 15%-ю выборку затяжки для тестирования, стандартизируйте данные и задайте тот 'g' положительный класс.

CVSVMModel = fitcsvm(X,Y,'Holdout',0.15,'ClassNames',{'b','g'},...
    'Standardize',true);
CompactSVMModel = CVSVMModel.Trained{1}; % Extract trained, compact classifier
testInds = test(CVSVMModel.Partition);   % Extract the test indices
XTest = X(testInds,:);
YTest = Y(testInds,:);

CVSVMModel ClassificationPartitionedModel классификатор. Это содержит свойство Trained, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM классификатор, что программное обеспечение обучило использование набора обучающих данных.

Оцените тестовое демонстрационное ребро.

e = edge(CompactSVMModel,XTest,YTest)
e = 5.0765

Граничное среднее значение тестовой выборки - приблизительно 5.

Предположим, что наблюдения в наборе данных измеряются последовательно, и что последние 150 наблюдений имеют лучшее качество из-за технологического обновления. Включите это продвижение путем взвешивания лучших качественных наблюдений больше, чем другие наблюдения.

Загрузите ionosphere набор данных.

load ionosphere
rng(1); % For reproducibility

Задайте вектор веса, который взвешивает лучшие качественные наблюдения два раза другие наблюдения.

n = size(X,1);
weights = [ones(n-150,1);2*ones(150,1)];

Обучите классификатор SVM. Задайте схему взвешивания и 15%-ю выборку затяжки для тестирования. Кроме того, стандартизируйте данные и задайте тот 'g' положительный класс.

CVSVMModel = fitcsvm(X,Y,'Weights',weights,'Holdout',0.15,...
    'ClassNames',{'b','g'},'Standardize',true);
CompactSVMModel = CVSVMModel.Trained{1};
testInds = test(CVSVMModel.Partition);   % Extract the test indices
XTest = X(testInds,:);
YTest = Y(testInds,:);
wTest = weights(testInds,:);

CVSVMModel обученный ClassificationPartitionedModel классификатор. Это содержит свойство Trained, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM классификатор, что программное обеспечение обучило использование набора обучающих данных.

Оцените, что тестовая выборка взвесила ребро с помощью схемы взвешивания.

e = edge(CompactSVMModel,XTest,YTest,'Weights',wTest)
e = 4.8341

Средневзвешенное поле тестовой выборки - приблизительно 5.

Выполните выбор признаков путем сравнения тестовых демонстрационных ребер от многоуровневых моделей. Базирующийся только на этом сравнении, классификатор с самым высоким ребром является лучшим классификатором.

Загрузите ionosphere набор данных.

load ionosphere
rng(1); % For reproducibility

Разделите набор данных в наборы обучающих данных и наборы тестов. Задайте 15%-ю выборку затяжки для тестирования.

Partition = cvpartition(Y,'Holdout',0.15);
testInds = test(Partition); % Indices for the test set
XTest = X(testInds,:);
YTest = Y(testInds,:);

Partition задает раздел набора данных.

Задайте эти два набора данных:

  • fullX содержит все предикторы (кроме удаленного столбца 0s).

  • partX содержит последние 20 предикторов.

fullX = X;
partX = X(:,end-20:end);

Обучите классификаторы SVM каждому набору предиктора. Задайте определение раздела.

FullCVSVMModel = fitcsvm(fullX,Y,'CVPartition',Partition);
PartCVSVMModel = fitcsvm(partX,Y,'CVPartition',Partition);
FCSVMModel = FullCVSVMModel.Trained{1};
PCSVMModel = PartCVSVMModel.Trained{1};

FullCVSVMModel и PartCVSVMModel ClassificationPartitionedModel классификаторы. Они содержат свойство Trained, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM классификатор, что программное обеспечение обучило использование набора обучающих данных.

Оцените тестовое демонстрационное ребро для каждого классификатора.

fullEdge = edge(FCSVMModel,XTest,YTest)
fullEdge = 2.8319
partEdge = edge(PCSVMModel,XTest(:,end-20:end),YTest)
partEdge = 1.5540

Ребро для классификатора, обученного на наборе полных данных, больше, предполагая, что классификатор, обученный со всеми предикторами, лучше.

Входные параметры

свернуть все

Модель классификации SVM, заданная как ClassificationSVM объект модели или CompactClassificationSVM объект модели возвращен fitcsvm или compact, соответственно.

Выборочные данные, заданные как таблица. Каждая строка TBL соответствует одному наблюдению, и каждый столбец соответствует одному переменному предиктору. Опционально, TBL может содержать дополнительные столбцы для весов наблюдения и переменной отклика. TBL должен содержать все предикторы, используемые, чтобы обучить SVMModel. Многостолбцовые переменные и массивы ячеек кроме массивов ячеек из символьных векторов не позволены.

Если TBL содержит переменную отклика, используемую, чтобы обучить SVMModel, затем вы не должны задавать ResponseVarName или Y.

Если вы обучили SVMModel использование выборочных данных, содержавшихся в таблице, затем входные данные для edge должен также быть в таблице.

Если вы устанавливаете 'Standardize',true в fitcsvm когда учебный SVMModel, затем программное обеспечение стандартизирует столбцы данных о предикторе с помощью соответствующих средних значений в SVMModel.Mu и стандартные отклонения в SVMModel.Sigma.

Типы данных: table

Данные о предикторе, заданные как числовая матрица.

Каждая строка X соответствует одному наблюдению (также известный как экземпляр или пример), и каждый столбец соответствует одной переменной (также известный как функцию). Переменные в столбцах X должен совпасть с переменными, которые обучили SVMModel классификатор.

Длина Y и количество строк в X должно быть равным.

Если вы устанавливаете 'Standardize',true в fitcsvm обучать SVMModel, затем программное обеспечение стандартизирует столбцы X использование соответствующих средних значений в SVMModel.Mu и стандартные отклонения в SVMModel.Sigma.

Типы данных: double | single

Имя переменной отклика, заданное как имя переменной в TBL. Если TBL содержит переменную отклика, используемую, чтобы обучить SVMModel, затем вы не должны задавать ResponseVarName.

Если вы задаете ResponseVarName, затем необходимо сделать так как вектор символов или представить скаляр в виде строки. Например, если переменная отклика хранится как TBL.Response, затем задайте ResponseVarName как 'Response'. В противном случае программное обеспечение обрабатывает все столбцы TBL, включая TBL.Response, как предикторы.

Переменная отклика должна быть категориальным, символом, или массивом строк, логическим или числовым вектором или массивом ячеек из символьных векторов. Если переменная отклика является символьным массивом, то каждый элемент должен соответствовать одной строке массива.

Типы данных: char | string

Метки класса, заданные как категориальное, символ, или массив строк, логический или числовой вектор или массив ячеек из символьных векторов. Y должен совпасть с типом данных SVMModel.ClassNames. (Программное обеспечение обрабатывает строковые массивы как массивы ячеек из символьных векторов.)

Длина Y должен равняться количеству строк в TBL или количество строк в X.

Веса наблюдения, заданные как числовой вектор или имя переменной в TBL.

Если вы задаете weights как числовой вектор, затем размер weights должно быть равно количеству строк в X или TBL.

Если вы задаете weights как имя переменной в TBL, необходимо сделать так как вектор символов или представить скаляр в виде строки. Например, если веса хранятся как TBL.W, затем задайте weights как 'W'. В противном случае программное обеспечение обрабатывает все столбцы TBL, включая TBL.W, как предикторы.

Если вы предоставляете веса, edge вычисляет взвешенное ребро классификации. Программное обеспечение взвешивает наблюдения в каждой строке X или TBL с соответствующим весом в weights.

Пример: 'Weights','W'

Типы данных: single | double | char | string

Больше о

свернуть все

Ребро классификации

edge является взвешенным средним classification margins.

Веса являются предшествующими вероятностями класса. Если вы предоставляете веса, то программное обеспечение нормирует их, чтобы суммировать к априорным вероятностям в соответствующих классах. Программное обеспечение использует повторно нормированные веса, чтобы вычислить взвешенное среднее.

Один способ выбрать среди нескольких классификаторов, например, выполнить выбор признаков, состоит в том, чтобы выбрать классификатор, который дает к самому высокому ребру.

Поле классификации

classification margin для бинарной классификации, для каждого наблюдения, различия между счетом классификации к истинному классу и счетом классификации к ложному классу.

Программное обеспечение задает поле классификации для бинарной классификации как

m=2yf(x).

x является наблюдением. Если истинная метка x является положительным классом, то y равняется 1, и –1 в противном случае. f (x) является счетом классификации положительных классов к наблюдению x. Поле классификации обычно задается как m = y f (x).

Если поля находятся по той же шкале, то они служат мерой по уверенности классификации. Среди нескольких классификаторов те, которые дают к большим полям, лучше.

Счет классификации

classification score SVM для классификации наблюдения x является расстоянием со знаком от x до контура решения в пределах от - ∞ к + ∞. Положительный счет к классу указывает, что x предсказан, чтобы быть в том классе. Отрицательный счет указывает в противном случае.

Положительный счет классификации классов f(x) обученная функция классификации SVM. f(x) также числовой, предсказанный ответ для x или счет к предсказанию x в положительный класс.

f(x)=j=1nαjyjG(xj,x)+b,

где (α1,...,αn,b) предполагаемые параметры SVM, G(xj,x) скалярное произведение на пробеле предиктора между x и векторами поддержки, и сумма включает наблюдения набора обучающих данных. Отрицательный счет классификации классов к x или счет к предсказанию x в отрицательный класс, является –f (x).

Если G (xj, x) = xjx (линейное ядро), то функция счета уменьшает до

f(x)=(x/s)β+b.

s является шкалой ядра, и β является вектором подходящих линейных коэффициентов.

Для получения дополнительной информации смотрите Машины опорных векторов Понимания.

Алгоритмы

Для бинарной классификации программное обеспечение задает поле для наблюдения j, mj, как

mj=2yjf(xj),

где yj ∊ {-1,1}, и f (xj) является предсказанным счетом наблюдения j для положительного класса. Однако mj = yj f (xj) обычно используется, чтобы задать поле.

Ссылки

[1] Christianini, N. и Дж. К. Шейв-Тейлор. Введение в машины опорных векторов и другое основанное на ядре изучение методов. Кембридж, Великобритания: Издательство Кембриджского университета, 2000.

Расширенные возможности

Введенный в R2014a