Сравнение точности двух классификационных моделей с помощью повторной перекрестной проверки
testckfold статистически оценивает точность двух моделей классификации путем многократной перекрестной проверки двух моделей, определения различий в потерях классификации, а затем формулирования тестовой статистики путем объединения различий потерь классификации. Этот тип теста особенно уместен, когда размер выборки ограничен.
Можно оценить, отличается ли точность классификационных моделей или одна классификационная модель работает лучше другой. Доступные тесты включают парный t-тест 5 на 2, парный F-тест 5 на 2 и повторный t-тест перекрестной проверки 10 на 10. Дополнительные сведения см. в разделе Повторные перекрестные проверки. Для ускорения вычислений testckfold поддерживает параллельные вычисления (требуется лицензия Parallel Computing Toolbox™).
возвращает решение теста, которое является результатом проведения парного теста перекрестной проверки F 5 на 2. Нулевая гипотеза - это классификационные модели h = testckfold(C1,C2,X1,X2)C1 и C2 имеют одинаковую точность при прогнозировании меток истинного класса с использованием данных предиктора и ответа в таблицах X1 и X2. h = 1 указывает на отклонение нулевой гипотезы на уровне значимости 5%.
testckfold проводит тест перекрестной проверки, применяя C1 и C2 ко всем переменным предиктора в X1 и X2соответственно. Метки истинного класса в X1 и X2 должно быть то же самое. Имена переменных ответа в X1, X2, C1.ResponseName, и C2.ResponseName должно быть то же самое.
Примеры способов сравнения моделей см. в разделе Советы.
использует любой из входных аргументов в предыдущих синтаксисах и дополнительных параметрах, указанных одним или несколькими h = testckfold(___,Name,Value)Name,Value аргументы пары. Например, можно указать тип альтернативной гипотезы, тип теста или использование параллельных вычислений.
Примеры способов сравнения моделей:
Сравните точность простой классификационной модели и более сложной модели, передав один и тот же набор данных предиктора.
Сравните точность двух разных моделей, используя два разных набора предикторов.
Выполните выбор различных типов элементов. Например, можно сравнить точность модели, обученной с помощью набора предикторов, с точностью модели, обученной на подмножестве или другом наборе предикторов. Можно произвольно выбрать набор предикторов или использовать такой метод выбора функций, как PCA или последовательный выбор функций (см. pca и sequentialfs).
Если оба этих оператора верны, то можно опустить Y.
Следовательно, testckfold использует общую переменную ответа в таблицах.
Одним из способов выбора функций без учета затрат является:
Создайте шаблон классификационной модели, характеризующий первую классификационную модель (C1).
Создайте шаблон классификационной модели, характеризующий вторую классификационную модель (C2).
Укажите два набора данных предиктора. Например, укажите X1 как полный набор предикторов и X2 в виде уменьшенного набора.
Войти testckfold(C1,C2,X1,X2,Y,'Alternative','less'). Если testckfold прибыль 1, то есть достаточно доказательств, чтобы предположить, что модель классификации, в которой используется меньше предикторов, работает лучше, чем модель, в которой используется полный набор предикторов.
В качестве альтернативы можно оценить, существует ли существенная разница между точностью двух моделей. Чтобы выполнить эту оценку, удалите 'Alternative','less' спецификация на шаге 4.testckfold проводит двусторонний тест, и h = 0 указывает на то, что недостаточно доказательств, чтобы предположить разницу в точности двух моделей.
Тесты подходят для потерь классификации по коэффициентам неправильной классификации, но можно указать другие функции потерь (см. LossFun). Ключевые предположения заключаются в том, что оценочные потери классификации независимы и нормально распределены со средним значением 0 и конечной общей дисперсией при двусторонней нулевой гипотезе. Классификационные потери, отличные от коэффициента неправильной классификации, могут нарушить это предположение.
Сильно дискретные данные, несбалансированные классы и сильно несбалансированные матрицы затрат могут нарушать нормальность предположений о разностях потерь классификации.
Если указано, что повторная перекрестная проверка t выполняется 10 на 10 с использованием 'Test','10x10t', то testckfold использует 10 степеней свободы для распределения t, чтобы найти критическую область и оценить значение p. Для получения дополнительной информации см. [2] и [3].
Использовать testcholdout:
Для тестовых наборов с большими размерами выборки
Реализация вариантов теста McNemar для сравнения точности двух моделей классификации
Для чувствительного к стоимости тестирования с использованием критерия хи-квадрата или отношения правдоподобия. Тест хи-квадрат использует quadprog(Панель инструментов оптимизации), для которой требуется лицензия Optimization Toolbox™.
[1] Алпайдин, Е. «Комбинированный F-тест 5 x 2 CV для сравнения алгоритмов обучения контролируемой классификации». Нейронные вычисления, т. 11, № 8, 1999, стр. 1885-1992.
[2] Букаерт. Р. «Выбор между двумя алгоритмами обучения на основе калиброванных тестов». Международная конференция по машинному обучению, 2003 год, стр. 51-58.
[3] Bouckaert, R. и Э. Франк. «Оценка возможности репликации тестов значимости для сравнения алгоритмов обучения». Достижения в области обнаружения знаний и интеллектуального анализа данных, 8-я Тихоокеанско-азиатская конференция, 2004, стр. 3-12.
[4] Диттерих, Т. «Приблизительные статистические тесты для сравнения алгоритмов обучения контролируемой классификации». Нейронные вычисления, т. 10, № 7, 1998, стр. 1895-1923.
[5] Хасти, Т., Р. Тибширани и Дж. Фридман. The Elements of Statistical Learning, 2nd Ed. New York: Springer, 2008.
templateDiscriminant | templateECOC | templateEnsemble | templateKNN | templateNaiveBayes | templateSVM | templateTree | testcholdout