Сравните точности двух классификационных моделей с помощью новых данных
compareHoldout статистически оценивает точности двух классификационных моделей. Функция сначала сравнивает их предсказанные метки с истинными метками, а затем обнаруживает, является ли различие между показателями неправильной классификации статистически значительной.
Можно определить, отличаются ли точности классификационных моделей или одна модель работает лучше другой. compareHoldout может провести несколько изменения теста McNemar, включая асимптотический тест, точный-условный тест и среднее p значение теста. Для чувствительной к затратам оценки доступные тесты включают тест хи-квадрат (требует Optimization Toolbox™) и тест коэффициента вероятности.
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h = compareHoldout(C1,C2,T1,T2,ResponseVarName)C1 и C2 имеют равную точность для предсказания истинных меток классов в ResponseVarName переменная. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1 использует данные предиктора в T1и вторую классификационную модель C2 использует данные предиктора в T2. Таблицы T1 и T2 должна содержать ту же переменную отклика, но может содержать различные наборы предикторов. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
h = 1 указывает на отказ от нулевой гипотезы на уровне 5% значимости. h = 0 указывает, что не отклоняет нулевую гипотезу на уровне 5%.
Ниже приведены примеры тестов, которые вы можете провести:
Сравните точности простой классификационной модели и модели, которая является более комплексной путем передачи того же набора данных предиктора (то есть T1 = T2).
Сравните точности двух потенциально разных моделей, используя два потенциально разных набора предикторов.
Выполните различные типы выбора признаков. Например, можно сравнить точность модели, обученной с использованием набора предикторов, с точностью модели, обученной на подмножестве или другом наборе этих предикторов. Можно выбрать набор предикторов произвольно или использовать метод выбора признаков, такой как PCA или последовательный выбор признаков (см. pca и sequentialfs).
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h = compareHoldout(C1,C2,T1,T2,Y)C1 и C2 имеют равную точность для предсказания истинных меток классов Y. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1 использует данные предиктора T1и вторую классификационную модель C2 использует данные предиктора T2. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h = compareHoldout(C1,C2,X1,X2,Y)C1 и C2 имеют равную точность для предсказания истинных меток классов Y. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1 использует данные предиктора X1и вторую классификационную модель C2 использует данные предиктора X2. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
задает опции, использующие один или несколько аргументы пары "имя-значение" в дополнение к комбинациям входных аргументов в предыдущих синтаксисах. Для примера можно задать тип альтернативной гипотезы, тип теста и предоставить матрицу затрат.h = compareHoldout(___,Name,Value)
compareHoldout не сравнивает модели ECOC, составленные из линейных или ядерно-классификационных моделей (то есть ClassificationLinear или ClassificationKernel объекты модели). Сравнение ClassificationECOC модели, состоящие из линейных или ядерно-классификационных моделей, использование testcholdout вместо этого.
Точно так же, compareHoldout не сравнивает ClassificationLinear или ClassificationKernel объекты модели. Чтобы сравнить эти модели, используйте testcholdout вместо этого.
Один из способов выполнить нечувствительный к затратам выбор признаков:
Обучите первую классификационную модель (C1) использование полного набора предикторов.
Обучите вторую классификационную модель (C2) использование уменьшенного набора предикторов.
Задайте X1 как данные предиктора полного набора тестов и X2 как уменьшенные данные предиктора набора тестов.
Введите compareHoldout(C1,C2,X1,X2,Y,'Alternative','less'). Если compareHoldout возвращает 1затем существует достаточно доказательств, чтобы предположить, что классификационная модель, которая использует меньше предикторов, работает лучше, чем модель, которая использует полный набор предикторов.
Кроме того, можно оценить, существует ли значительное различие между точностями двух моделей. Чтобы выполнить эту оценку, удалите 'Alternative','less' спецификация на шаге 4. compareHoldout проводит двусторонний тест и h = 0 указывает, что недостаточно доказательств, чтобы предположить различие в точности двух моделей.
Чувствительные к расходам тесты выполняют числовую оптимизацию, которая требует дополнительных вычислительных ресурсов. Тест коэффициента правдоподобия проводит числовую оптимизацию косвенно путем нахождения корня множителя Лагранжа в интервале. Для некоторых наборов данных, если корень лежит близко к контурам интервала, то метод может оказаться неудачным. Поэтому, если у вас есть лицензия Optimization Toolbox, рассмотрите проведение чувствительного к стоимости теста chi-квадрат вместо этого. Для получения дополнительной информации смотрите CostTest и чувствительное к расходам проверка.
Чтобы непосредственно сравнить точность двух наборов меток классов в предсказании набора истинных меток классов, используйте testcholdout.
[1] Agresti, A. Categorical Data Analysis, 2nd Ed. John Wiley & Sons, Inc.: Хобокен, Нью-Джерси, 2002.
[2] Fagerlan, M.W., S. Lydersen, and P. Laake. Тест МакНемара на двоичные совпадающие данные пар: Mid-p и Asymptotic лучше, чем точные условные. Методика медицинских исследований BMC. Том 13, 2013, стр. 1-8.
[3] Ланкастер, H.O. «Тесты значимости в дискретных распределениях». JASA, том 56, номер 294, 1961, стр. 223-234.
[4] McNemar, Q. «Примечание об ошибке дискретизации различий между коррелированными пропорциями или процентами». Психометрика, том 12, № 2, 1947, с. 153-157.
[5] Mosteller, F. «Некоторые статистические проблемы в измерении субъективного ответа на наркотики». Биометрия, том 8, № 3, 1952, с. 220-226.