Поля классификации для перекрестно проверенной модели классификации ядра
возвращает поля классификации, полученные перекрестно проверенной двоичной моделью ядра (margin = kfoldMargin(CVMdl)ClassificationPartitionedKernel) CVMdl. Для каждого раза, kfoldMargin вычисляет поля классификации для кратных проверке наблюдений с использованием модели, обученной на кратных обучению наблюдениях.
Загрузить ionosphere набор данных. Этот набор данных имеет 34 предиктора и 351 двоичный отклик для радарных возвращений, которые помечены как плохие ('b') или хорошо ('g').
load ionosphereПерекрестная проверка двоичной модели классификации ядра с использованием данных.
CVMdl = fitckernel(X,Y,'Crossval','on')
CVMdl =
ClassificationPartitionedKernel
CrossValidatedModel: 'Kernel'
ResponseName: 'Y'
NumObservations: 351
KFold: 10
Partition: [1x1 cvpartition]
ClassNames: {'b' 'g'}
ScoreTransform: 'none'
Properties, Methods
CVMdl является ClassificationPartitionedKernel модель. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Чтобы указать другое количество сгибов, используйте 'KFold' аргумент пары имя-значение вместо 'Crossval'.
Оценка полей классификации для кратных проверке наблюдений.
m = kfoldMargin(CVMdl); size(m)
ans = 1×2
351 1
m является вектором 351 на 1. m(j) - классификационный запас для наблюдения j.
Постройте график k-кратных полей с помощью боксплота.
boxplot(m,'Labels','All Observations') title('Distribution of Margins')

Выбор элемента выполняется путем сравнения k-кратных полей из нескольких моделей. Исходя исключительно из этого критерия, классификатор с наибольшими маржами является лучшим классификатором.
Загрузить ionosphere набор данных. Этот набор данных имеет 34 предиктора и 351 двоичный отклик для радарных возвращений, которые помечены как плохие ('b') или хорошо ('g').
load ionosphereСлучайным образом выберите 10% переменных предиктора.
rng(1); % For reproducibility p = size(X,2); % Number of predictors idxPart = randsample(p,ceil(0.1*p));
Перекрестная проверка двух бинарных моделей классификации ядра: одна, которая использует все предикторы, и одна, которая использует 10% предикторов.
CVMdl = fitckernel(X,Y,'CrossVal','on'); PCVMdl = fitckernel(X(:,idxPart),Y,'CrossVal','on');
CVMdl и PCVMdl являются ClassificationPartitionedKernel модели. По умолчанию программное обеспечение реализует 10-кратную перекрестную проверку. Чтобы указать другое количество сгибов, используйте 'KFold' аргумент пары имя-значение вместо 'Crossval'.
Оцените k-кратные поля для каждого классификатора.
fullMargins = kfoldMargin(CVMdl); partMargins = kfoldMargin(PCVMdl);
Постройте график распределения наборов полей с помощью оконных графиков.
boxplot([fullMargins partMargins], ... 'Labels',{'All Predictors','10% of the Predictors'}); title('Distribution of Margins')

Квартили PCVMdl распределение маржи расположено выше квартилей CVMdl распределение маржи, указывающее, что PCVMdl модель является лучшим классификатором.
CVMdl - Перекрестная проверка, двоичная модель классификации ядраClassificationPartitionedKernel объект моделиПерекрестная проверка, двоичная модель классификации ядра, указанная как ClassificationPartitionedKernel объект модели. Можно создать ClassificationPartitionedKernel модель с использованием fitckernel и задают любой из аргументов пары имя-значение перекрестной проверки.
Для получения оценок, kfoldMargin применяет те же данные, которые используются для перекрестной проверки модели классификации ядра (X и Y).
margin - Границы классификацииПоля классификации, возвращаемые в виде числового вектора. margin является вектором n-by-1, где каждая строка является полем соответствующего наблюдения, а n - числом наблюдений (size(CVMdl.Y,1)).
Поле классификации для двоичной классификации является для каждого наблюдения разницей между оценкой классификации для истинного класса и оценкой классификации для ложного класса.
Программа определяет поле классификации для двоичной классификации как
x).
x - это наблюдение. Если истинная метка x является положительным классом, то y равно 1, а в противном случае -1. f (x) - показатель классификации положительного класса для наблюдения x. Обычно запас классификации определяется как m = yf (x).
Если поля находятся в одной шкале, то они служат мерой достоверности классификации. Среди нескольких классификаторов лучше те, которые дают большую маржу.
Для моделей классификации ядра необработанный показатель классификации для классификации наблюдения x, вектора строки, в положительный класс определяется как
β + b.
(·) - это преобразование наблюдения для расширения признаков.
β - оцененный вектор-столбец коэффициентов.
b - оценочное скалярное смещение.
Необработанная оценка классификации для классификации x в отрицательный класс равна − f (x). Программа классифицирует наблюдения в класс, который дает положительную оценку.
Если модель классификации ядра состоит из учеников логистической регрессии, то программное обеспечение применяет 'logit' преобразование баллов в необработанные оценки классификации (см. ScoreTransform).
Имеется измененная версия этого примера. Открыть этот пример с помощью изменений?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.