kfoldLoss

Потеря классификации для наблюдений, не используемых в обучении

Синтаксис

L = kfoldLoss(obj)
L = kfoldLoss(obj,Name,Value)

Описание

L = kfoldLoss(obj) возвращает потерю, полученную перекрестной подтвержденной моделью obj классификации. Для каждого сгиба этот метод вычисляет потерю классификации для, окутывают наблюдения с помощью модели, обученной на наблюдениях из сгиба.

L = kfoldLoss(obj,Name,Value) вычисляет потерю с дополнительными опциями, заданными одним или несколькими Name,Value парные аргументы. Можно задать несколько аргументов пары "имя-значение" в любом порядке как Name1,Value1,…,NameN,ValueN.

Входные параметры

obj

Объект класса ClassificationPartitionedModel.

Аргументы в виде пар имя-значение

Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

'folds'

Индексы сгибов в пределах от 1 к obj.KFold. Используйте только эти сгибы в предсказаниях.

Значение по умолчанию: 1:obj.KFold

'lossfun'

Функция потерь в виде разделенной запятой пары, состоящей из 'LossFun' и встроенное имя функции потерь или указатель на функцию.

  • В следующей таблице перечислены доступные функции потерь. Задайте тот с помощью его соответствующего вектора символов или строкового скаляра.

    ЗначениеОписание
    'binodeviance'Биномиальное отклонение
    'classiferror'Ошибка классификации
    'exponential'Экспоненциал
    'hinge'Стержень
    'logit'Логистический
    'mincost'Минимальный ожидал стоимость misclassification (для классификационных оценок, которые являются апостериорными вероятностями),
    'quadratic'Квадратичный

    'mincost' подходит для классификационных оценок, которые являются апостериорными вероятностями. Все модели используют апостериорные вероятности в качестве классификационных оценок по умолчанию кроме моделей SVM. Можно задать, чтобы использовать апостериорные вероятности в качестве классификационных оценок для моделей SVM установкой 'FitPosterior',true когда вы перекрестный подтверждаете модель с помощью fitcsvm.

  • Задайте свою собственную функцию с помощью обозначения указателя на функцию.

    Предположим тот n будьте количеством наблюдений в X и K будьте количеством отличных классов (numel(obj.ClassNames), obj входная модель). Ваша функция должна иметь эту подпись

    lossvalue = lossfun(C,S,W,Cost)
    где:

    • Выходной аргумент lossvalue скаляр.

    • Вы выбираете имя функции (lossfun).

    • C n- K логическая матрица со строками, указывающими, которые классифицируют соответствующее наблюдение, принадлежит. Порядок следования столбцов соответствует порядку класса в obj.ClassNames.

      Создайте C установкой C(p,q) = 1 если наблюдение p находится в классе q, для каждой строки. Установите все другие элементы строки p к 0.

    • S n- K числовая матрица классификационных оценок. Порядок следования столбцов соответствует порядку класса в obj.ClassNamesS матрица классификационных оценок, похожих на выход predict.

    • W n- 1 числовой вектор весов наблюдения. Если вы передаете W, программное обеспечение нормирует их, чтобы суммировать к 1.

    • Cost K- K числовая матрица затрат misclassification. Например, Cost = ones(K) - eye(K) задает стоимость 0 для правильной классификации и 1 для misclassification.

    Задайте свое использование функции 'LossFun', @lossfun.

Для получения дополнительной информации о функциях потерь смотрите Потерю Классификации.

Значение по умолчанию: 'classiferror'

'mode'

Вектор символов или строковый скаляр для определения выхода kfoldLoss:

  • 'average' L скаляр, потеря, усредненная по всем сгибам.

  • 'individual' L вектор длины obj.KFold, где каждая запись является потерей для сгиба.

Значение по умолчанию: 'average'

Выходные аргументы

L

Потеря, по умолчанию часть неправильно классифицированных данных. L может быть вектор и может означать разные вещи, в зависимости от настроек пары "имя-значение".

Примеры

развернуть все

Загрузите ionosphere набор данных.

load ionosphere

Вырастите дерево классификации.

tree = fitctree(X,Y);

Перекрестный подтвердите дерево классификации использование 10-кратной перекрестной проверки.

cvtree = crossval(tree);

Оцените перекрестную подтвержденную ошибку классификации.

L = kfoldLoss(cvtree)
L = 0.1111

Больше о

развернуть все

Для просмотра документации необходимо авторизоваться на сайте