Сравните точности двух классификационных моделей с помощью новых данных
compareHoldout
статистически оценивает точности двух классификационных моделей. Функция сначала сравнивает их предсказанные метки с истинными метками, а затем обнаруживает, является ли различие между показателями неправильной классификации статистически значительной.
Можно определить, отличаются ли точности классификационных моделей или одна модель работает лучше другой. compareHoldout
может провести несколько изменения теста McNemar, включая асимптотический тест, точный-условный тест и среднее p значение теста. Для чувствительной к затратам оценки доступные тесты включают тест хи-квадрат (требует Optimization Toolbox™) и тест коэффициента вероятности.
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h
= compareHoldout(C1
,C2
,T1
,T2
,ResponseVarName
)C1
и C2
имеют равную точность для предсказания истинных меток классов в ResponseVarName
переменная. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1
использует данные предиктора в T1
и вторую классификационную модель C2
использует данные предиктора в T2
. Таблицы T1
и T2
должна содержать ту же переменную отклика, но может содержать различные наборы предикторов. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
h
= 1
указывает на отказ от нулевой гипотезы на уровне 5% значимости. h
= 0
указывает, что не отклоняет нулевую гипотезу на уровне 5%.
Ниже приведены примеры тестов, которые вы можете провести:
Сравните точности простой классификационной модели и модели, которая является более комплексной путем передачи того же набора данных предиктора (то есть T1
= T2
).
Сравните точности двух потенциально разных моделей, используя два потенциально разных набора предикторов.
Выполните различные типы выбора признаков. Например, можно сравнить точность модели, обученной с использованием набора предикторов, с точностью модели, обученной на подмножестве или другом наборе этих предикторов. Можно выбрать набор предикторов произвольно или использовать метод выбора признаков, такой как PCA или последовательный выбор признаков (см. pca
и sequentialfs
).
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h
= compareHoldout(C1
,C2
,T1
,T2
,Y
)C1
и C2
имеют равную точность для предсказания истинных меток классов Y
. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1
использует данные предиктора T1
и вторую классификационную модель C2
использует данные предиктора T2
. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
возвращает решение теста от проверки нулевой гипотезы о том, что обученные классификационные модели h
= compareHoldout(C1
,C2
,X1
,X2
,Y
)C1
и C2
имеют равную точность для предсказания истинных меток классов Y
. Альтернативная гипотеза заключается в том, что метки имеют неравную точность.
Первая классификационная модель C1
использует данные предиктора X1
и вторую классификационную модель C2
использует данные предиктора X2
. По умолчанию программа проводит тест McNemar p средним значением, чтобы сравнить точности.
задает опции, использующие один или несколько аргументы пары "имя-значение" в дополнение к комбинациям входных аргументов в предыдущих синтаксисах. Для примера можно задать тип альтернативной гипотезы, тип теста и предоставить матрицу затрат.h
= compareHoldout(___,Name,Value
)
compareHoldout
не сравнивает модели ECOC, составленные из линейных или ядерно-классификационных моделей (то есть ClassificationLinear
или ClassificationKernel
объекты модели). Сравнение ClassificationECOC
модели, состоящие из линейных или ядерно-классификационных моделей, использование testcholdout
вместо этого.
Точно так же, compareHoldout
не сравнивает ClassificationLinear
или ClassificationKernel
объекты модели. Чтобы сравнить эти модели, используйте testcholdout
вместо этого.
Один из способов выполнить нечувствительный к затратам выбор признаков:
Обучите первую классификационную модель (C1
) использование полного набора предикторов.
Обучите вторую классификационную модель (C2
) использование уменьшенного набора предикторов.
Задайте X1
как данные предиктора полного набора тестов и X2
как уменьшенные данные предиктора набора тестов.
Введите compareHoldout(C1,C2,X1,X2,Y,'Alternative','less')
. Если compareHoldout
возвращает 1
затем существует достаточно доказательств, чтобы предположить, что классификационная модель, которая использует меньше предикторов, работает лучше, чем модель, которая использует полный набор предикторов.
Кроме того, можно оценить, существует ли значительное различие между точностями двух моделей. Чтобы выполнить эту оценку, удалите 'Alternative','less'
спецификация на шаге 4. compareHoldout
проводит двусторонний тест и h = 0
указывает, что недостаточно доказательств, чтобы предположить различие в точности двух моделей.
Чувствительные к расходам тесты выполняют числовую оптимизацию, которая требует дополнительных вычислительных ресурсов. Тест коэффициента правдоподобия проводит числовую оптимизацию косвенно путем нахождения корня множителя Лагранжа в интервале. Для некоторых наборов данных, если корень лежит близко к контурам интервала, то метод может оказаться неудачным. Поэтому, если у вас есть лицензия Optimization Toolbox, рассмотрите проведение чувствительного к стоимости теста chi-квадрат вместо этого. Для получения дополнительной информации смотрите CostTest
и чувствительное к расходам проверка.
Чтобы непосредственно сравнить точность двух наборов меток классов в предсказании набора истинных меток классов, используйте testcholdout
.
[1] Agresti, A. Categorical Data Analysis, 2nd Ed. John Wiley & Sons, Inc.: Хобокен, Нью-Джерси, 2002.
[2] Fagerlan, M.W., S. Lydersen, and P. Laake. Тест МакНемара на двоичные совпадающие данные пар: Mid-p и Asymptotic лучше, чем точные условные. Методика медицинских исследований BMC. Том 13, 2013, стр. 1-8.
[3] Ланкастер, H.O. «Тесты значимости в дискретных распределениях». JASA, том 56, номер 294, 1961, стр. 223-234.
[4] McNemar, Q. «Примечание об ошибке дискретизации различий между коррелированными пропорциями или процентами». Психометрика, том 12, № 2, 1947, с. 153-157.
[5] Mosteller, F. «Некоторые статистические проблемы в измерении субъективного ответа на наркотики». Биометрия, том 8, № 3, 1952, с. 220-226.