Найдите ребро классификации для классификатора машины опорных векторов (SVM)
возвращает ребро классификации (e
= edge(SVMModel
,TBL
,ResponseVarName
)e
) для классификатора машины опорных векторов (SVM) SVMModel
использование данных о предикторе в таблице TBL
и класс помечает в TBL.ResponseVarName
.
Ребро классификации (e
) скалярное значение, которое представляет взвешенное среднее полей классификации.
возвращает ребро классификации (e
= edge(SVMModel
,TBL
,Y
)e
) для классификатора SVM SVMModel
использование данных о предикторе в таблице TBL
и класс помечает в Y
.
Загрузите ionosphere
набор данных.
load ionosphere rng(1); % For reproducibility
Обучите классификатор SVM. Задайте 15%-ю выборку затяжки для тестирования, стандартизируйте данные и задайте тот 'g'
положительный класс.
CVSVMModel = fitcsvm(X,Y,'Holdout',0.15,'ClassNames',{'b','g'},... 'Standardize',true); CompactSVMModel = CVSVMModel.Trained{1}; % Extract trained, compact classifier testInds = test(CVSVMModel.Partition); % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:);
CVSVMModel
ClassificationPartitionedModel
классификатор. Это содержит свойство Trained
, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM
классификатор, что программное обеспечение обучило использование набора обучающих данных.
Оцените тестовое демонстрационное ребро.
e = edge(CompactSVMModel,XTest,YTest)
e = 5.0765
Граничное среднее значение тестовой выборки - приблизительно 5.
Предположим, что наблюдения в наборе данных измеряются последовательно, и что последние 150 наблюдений имеют лучшее качество из-за технологического обновления. Включите это продвижение путем взвешивания лучших качественных наблюдений больше, чем другие наблюдения.
Загрузите ionosphere
набор данных.
load ionosphere rng(1); % For reproducibility
Задайте вектор веса, который взвешивает лучшие качественные наблюдения два раза другие наблюдения.
n = size(X,1); weights = [ones(n-150,1);2*ones(150,1)];
Обучите классификатор SVM. Задайте схему взвешивания и 15%-ю выборку затяжки для тестирования. Кроме того, стандартизируйте данные и задайте тот 'g'
положительный класс.
CVSVMModel = fitcsvm(X,Y,'Weights',weights,'Holdout',0.15,... 'ClassNames',{'b','g'},'Standardize',true); CompactSVMModel = CVSVMModel.Trained{1}; testInds = test(CVSVMModel.Partition); % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); wTest = weights(testInds,:);
CVSVMModel
обученный ClassificationPartitionedModel
классификатор. Это содержит свойство Trained
, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM
классификатор, что программное обеспечение обучило использование набора обучающих данных.
Оцените, что тестовая выборка взвесила ребро с помощью схемы взвешивания.
e = edge(CompactSVMModel,XTest,YTest,'Weights',wTest)
e = 4.8341
Средневзвешенное поле тестовой выборки - приблизительно 5.
Выполните выбор признаков путем сравнения тестовых демонстрационных ребер от многоуровневых моделей. Базирующийся только на этом сравнении, классификатор с самым высоким ребром является лучшим классификатором.
Загрузите ionosphere
набор данных.
load ionosphere rng(1); % For reproducibility
Разделите набор данных в наборы обучающих данных и наборы тестов. Задайте 15%-ю выборку затяжки для тестирования.
Partition = cvpartition(Y,'Holdout',0.15); testInds = test(Partition); % Indices for the test set XTest = X(testInds,:); YTest = Y(testInds,:);
Partition
задает раздел набора данных.
Задайте эти два набора данных:
fullX
содержит все предикторы (кроме удаленного столбца 0s).
partX
содержит последние 20 предикторов.
fullX = X; partX = X(:,end-20:end);
Обучите классификаторы SVM каждому набору предиктора. Задайте определение раздела.
FullCVSVMModel = fitcsvm(fullX,Y,'CVPartition',Partition); PartCVSVMModel = fitcsvm(partX,Y,'CVPartition',Partition); FCSVMModel = FullCVSVMModel.Trained{1}; PCSVMModel = PartCVSVMModel.Trained{1};
FullCVSVMModel
и PartCVSVMModel
ClassificationPartitionedModel
классификаторы. Они содержат свойство Trained
, который является массивом ячеек 1 на 1, содержащим CompactClassificationSVM
классификатор, что программное обеспечение обучило использование набора обучающих данных.
Оцените тестовое демонстрационное ребро для каждого классификатора.
fullEdge = edge(FCSVMModel,XTest,YTest)
fullEdge = 2.8321
partEdge = edge(PCSVMModel,XTest(:,end-20:end),YTest)
partEdge = 1.5541
Ребро для классификатора, обученного на наборе полных данных, больше, предполагая, что классификатор, обученный со всеми предикторами, лучше.
SVMModel
— Модель классификации SVMClassificationSVM
объект модели | CompactClassificationSVM
объект моделиМодель классификации SVM в виде ClassificationSVM
объект модели или CompactClassificationSVM
объект модели, возвращенный fitcsvm
или compact
, соответственно.
TBL
— Выборочные данныеВыборочные данные в виде таблицы. Каждая строка TBL
соответствует одному наблюдению, и каждый столбец соответствует одному переменному предиктору. Опционально, TBL
может содержать дополнительные столбцы для весов наблюдения и переменной отклика. TBL
должен содержать все предикторы, используемые, чтобы обучить SVMModel
. Многостолбцовые переменные и массивы ячеек кроме массивов ячеек из символьных векторов не позволены.
Если TBL
содержит переменную отклика, используемую, чтобы обучить SVMModel
, затем вы не должны задавать ResponseVarName
или Y
.
Если вы обучили SVMModel
использование выборочных данных, содержавшихся в таблице, затем входные данные для edge
должен также быть в таблице.
Если вы устанавливаете 'Standardize',true
\in fitcsvm
когда учебный SVMModel
, затем программное обеспечение стандартизирует столбцы данных о предикторе с помощью соответствующих средних значений в SVMModel.Mu
и стандартные отклонения в SVMModel.Sigma
.
Типы данных: table
X
— Данные о предиктореДанные о предикторе в виде числовой матрицы.
Каждая строка X
соответствует одному наблюдению (также известный как экземпляр или пример), и каждый столбец соответствует одной переменной (также известный как функцию). Переменные в столбцах X
должен совпасть с переменными, которые обучили SVMModel
классификатор.
Длина Y
и количество строк в X
должно быть равным.
Если вы устанавливаете 'Standardize',true
\in fitcsvm
обучать SVMModel
, затем программное обеспечение стандартизирует столбцы X
использование соответствующих средних значений в SVMModel.Mu
и стандартные отклонения в SVMModel.Sigma
.
Типы данных: double |
single
ResponseVarName
— Имя переменной откликаTBL
Имя переменной отклика в виде имени переменной в TBL
. Если TBL
содержит переменную отклика, используемую, чтобы обучить SVMModel
, затем вы не должны задавать ResponseVarName
.
Если вы задаете ResponseVarName
, затем необходимо сделать так как вектор символов или строковый скаляр. Например, если переменная отклика хранится как TBL.Response
, затем задайте ResponseVarName
как 'Response'
. В противном случае программное обеспечение обрабатывает все столбцы TBL
, включая TBL.Response
, как предикторы.
Переменная отклика должна быть категориальным, символом, или массивом строк, логическим или числовым вектором или массивом ячеек из символьных векторов. Если переменная отклика является символьным массивом, то каждый элемент должен соответствовать одной строке массива.
Типы данных: char |
string
Y
— Метки классаКласс помечает в виде категориального, символа, или массива строк, логического или числового вектора или массива ячеек из символьных векторов. Y
должен совпасть с типом данных SVMModel.ClassNames
. (Программное обеспечение обрабатывает строковые массивы как массивы ячеек из символьных векторов.)
Длина Y
должен равняться количеству строк в TBL
или количество строк в X
.
weights
— Веса наблюденияones(size(X,1),1)
(значение по умолчанию) | числовой вектор | имя переменной в TBL
Веса наблюдения в виде числового вектора или имени переменной в TBL
.
Если вы задаете weights
как числовой вектор, затем размер weights
должно быть равно количеству строк в X
или TBL
.
Если вы задаете weights
как имя переменной в TBL
, необходимо сделать так как вектор символов или строковый скаляр. Например, если веса хранятся как TBL.W
, затем задайте weights
как 'W'
. В противном случае программное обеспечение обрабатывает все столбцы TBL
, включая TBL.W
, как предикторы.
Если вы предоставляете веса, edge
вычисляет взвешенное ребро классификации. Программное обеспечение взвешивает наблюдения в каждой строке X
или TBL
с соответствующим весом в weights
.
Пример: 'Weights','W'
Типы данных: single
| double
| char
| string
edge является взвешенным средним classification margins.
Веса являются предшествующими вероятностями класса. Если вы предоставляете веса, то программное обеспечение нормирует их, чтобы суммировать к априорным вероятностям в соответствующих классах. Программное обеспечение использует повторно нормированные веса, чтобы вычислить взвешенное среднее.
Один способ выбрать среди нескольких классификаторов, например, выполнить выбор признаков, состоит в том, чтобы выбрать классификатор, который дает к самому высокому ребру.
classification margin для бинарной классификации, для каждого наблюдения, различия между классификационной оценкой для истинного класса и классификационной оценкой для ложного класса.
Программное обеспечение задает поле классификации для бинарной классификации как
x является наблюдением. Если истинная метка x является положительным классом, то y равняется 1, и –1 в противном случае. f (x) является классификационной оценкой положительного класса для наблюдения x. Поле классификации обычно задается как m = y f (x).
Если поля находятся по той же шкале, то они служат мерой по доверию классификации. Среди нескольких классификаторов те, которые дают к большим полям, лучше.
classification score SVM для классификации наблюдения x является расстоянием со знаком от x до контура решения в пределах от - ∞ к + ∞. Положительный счет к классу указывает, что x предсказан, чтобы быть в том классе. Отрицательный счет указывает в противном случае.
Положительная классификационная оценка класса обученная функция классификации SVM. также числовой предсказанный ответ для x или счет к предсказанию x в положительный класс.
где предполагаемые параметры SVM, скалярное произведение на пробеле предиктора между x и векторами поддержки, и сумма включает наблюдения набора обучающих данных. Отрицательная классификационная оценка класса для x или счет к предсказанию x в отрицательный класс, является –f (x).
Если G (xj, x) = xj ′x (линейное ядро), то функция счета уменьшает до
s является шкалой ядра, и β является вектором из подходящих линейных коэффициентов.
Для получения дополнительной информации смотрите Машины опорных векторов Понимания.
Для бинарной классификации программное обеспечение задает поле для наблюдения j, mj, как
где yj ∊ {-1,1}, и f (xj) является предсказанным счетом наблюдения j для положительного класса. Однако mj = yj f (xj) обычно используется, чтобы задать поле.
[1] Christianini, N. и Дж. К. Шейв-Тейлор. Введение в машины опорных векторов и другое основанное на ядре изучение методов. Кембридж, Великобритания: Издательство Кембриджского университета, 2000.
Эта функция полностью поддерживает "высокие" массивы. Для получения дополнительной информации см. Раздел "Высокие массивы".
ClassificationSVM
| CompactClassificationSVM
| loss
| predict
| margin
| resubEdge
| kfoldEdge
| fitcsvm
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.