Ребро классификации для перекрестной подтвержденной модели классификации ядер
возвращает ребро классификации, полученное перекрестной подтвержденной, бинарной моделью ядра (edge
= kfoldEdge(CVMdl
)ClassificationPartitionedKernel
) CVMdl
. Для каждого сгиба, kfoldEdge
вычисляет ребро классификации для наблюдений сгиба валидации с помощью модели, обученной на наблюдениях учебного сгиба.
возвращает ребро классификации с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Например, задайте количество сгибов или уровня агрегации.edge
= kfoldEdge(CVMdl
,Name,Value
)
Загрузите ionosphere
набор данных. Этот набор данных имеет 34 предиктора, и 351 бинарный ответ для радара возвращается, которые помечены любой плохо ('b'
) или хороший ('g'
).
load ionosphere
Перекрестный подтвердите бинарную модель классификации ядер использование данных.
CVMdl = fitckernel(X,Y,'Crossval','on')
CVMdl = ClassificationPartitionedKernel CrossValidatedModel: 'Kernel' ResponseName: 'Y' NumObservations: 351 KFold: 10 Partition: [1x1 cvpartition] ClassNames: {'b' 'g'} ScoreTransform: 'none' Properties, Methods
CVMdl
ClassificationPartitionedKernel
модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Чтобы задать различное количество сгибов, используйте 'KFold'
аргумент пары "имя-значение" вместо 'Crossval'
.
Оцените перекрестное подтвержденное ребро классификации.
edge = kfoldEdge(CVMdl)
edge = 1.5585
В качестве альтернативы можно получить ребра на сгиб путем определения пары "имя-значение" 'Mode','individual'
в kfoldEdge
.
Выполните выбор признаков путем сравнения ребер k-сгиба от многоуровневых моделей. Базирующийся только на этом критерии, классификатор с самым большим ребром является лучшим классификатором.
Загрузите ionosphere
набор данных. Этот набор данных имеет 34 предиктора, и 351 бинарный ответ для радара возвращается, которые помечены любой плохо ('b'
) или хороший ('g'
).
load ionosphere
Случайным образом выберите половину переменных предикторов.
rng(1); % For reproducibility p = size(X,2); % Number of predictors idxPart = randsample(p,ceil(0.5*p));
Перекрестный подтвердите две бинарных модели классификации ядер: тот, который использует все предикторы и тот, который использует половину предикторов.
CVMdl = fitckernel(X,Y,'CrossVal','on'); PCVMdl = fitckernel(X(:,idxPart),Y,'CrossVal','on');
CVMdl
и PCVMdl
ClassificationPartitionedKernel
модели. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Чтобы задать различное количество сгибов, используйте 'KFold'
аргумент пары "имя-значение" вместо 'Crossval'
.
Оцените ребро k-сгиба для каждого классификатора.
fullEdge = kfoldEdge(CVMdl)
fullEdge = 1.5142
partEdge = kfoldEdge(PCVMdl)
partEdge = 1.8910
На основе ребер k-сгиба классификатор, который использует половину предикторов, является лучшей моделью.
CVMdl
— Перекрестная подтвержденная, бинарная модель классификации ядерClassificationPartitionedKernel
объект моделиПерекрестная подтвержденная, бинарная модель классификации ядер в виде ClassificationPartitionedKernel
объект модели. Можно создать ClassificationPartitionedKernel
модель при помощи fitckernel
и определение любого из аргументов пары "имя-значение" перекрестной проверки.
Получить оценки, kfoldEdge
применяется те же данные раньше перекрестный подтверждали модель классификации ядер (X
и Y
).
Задайте дополнительные разделенные запятой пары Name,Value
аргументы. Name
имя аргумента и Value
соответствующее значение. Name
должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN
.
kfoldEdge(CVMdl,'Mode','individual')
возвращает ребро классификации для каждого сгиба.'Folds'
— Сверните индексы для предсказания1:CVMdl.KFold
(значение по умолчанию) | числовой вектор из положительных целых чиселСверните индексы для предсказания в виде разделенной запятой пары, состоящей из 'Folds'
и числовой вектор из положительных целых чисел. Элементы Folds
должен быть в диапазоне от 1
к CVMdl.KFold
.
Программное обеспечение использует только сгибы, заданные в Folds
для предсказания.
Пример: 'Folds',[1 4 10]
Типы данных: single
| double
'Mode'
— Уровень агрегации для выхода'average'
(значение по умолчанию) | 'individual'
Уровень агрегации для выхода в виде разделенной запятой пары, состоящей из 'Mode'
и 'average'
или 'individual'
.
Эта таблица описывает значения.
Значение | Описание |
---|---|
'average' | Выход является скалярным средним значением по всем сгибам. |
'individual' | Выход является вектором из длины k, содержащий одно значение на сгиб, где k является количеством сгибов. |
Пример: 'Mode','individual'
edge
— Ребро классификацииРебро классификации, возвращенное в виде числа или числового вектор-столбца.
Если Mode
'average'
, затем edge
среднее ребро классификации по всем сгибам. В противном случае, edge
k-by-1 числовой вектор-столбец, содержащий ребро классификации для каждого сгиба, где k является количеством сгибов.
classification edge является взвешенным средним classification margins.
Один способ выбрать среди нескольких классификаторов, например, выполнить выбор признаков, состоит в том, чтобы выбрать классификатор, который дает к самому большому ребру.
classification margin для бинарной классификации, для каждого наблюдения, различия между классификационной оценкой для истинного класса и классификационной оценкой для ложного класса.
Программное обеспечение задает поле классификации для бинарной классификации как
x является наблюдением. Если истинная метка x является положительным классом, то y равняется 1, и –1 в противном случае. f (x) является классификационной оценкой положительного класса для наблюдения x. Поле классификации обычно задается как m = y f (x).
Если поля находятся по той же шкале, то они служат мерой по доверию классификации. Среди нескольких классификаторов те, которые дают к большим полям, лучше.
Для моделей классификации ядер, необработанного classification score для классификации наблюдения x, вектор-строка, в положительный класс задан
преобразование наблюдения для расширения функции.
β является предполагаемым вектор-столбцом коэффициентов.
b является предполагаемым скалярным смещением.
Необработанная классификационная оценка для классификации x в отрицательный класс является −f (x). Программное обеспечение классифицирует наблюдения в класс, который дает к положительному счету.
Если модель классификации ядер состоит из учеников логистической регрессии, то программное обеспечение применяет 'logit'
выиграйте преобразование к необработанным классификационным оценкам (см. ScoreTransform
).
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.