[1] Agresti, A. Categorical Data Analysis, 2nd Ed. Hoboken, NJ: John Wiley & Sons, Inc., 2002.
[2] Allwein, E., R. Schapire и Y. Singer. «Сокращение мультиклассов до двоичных: унифицирующий подход к classifiers маржи». Журнал исследований машинного обучения. Том 1, 2000, стр. 113-141.
[3] Алпайдин, Е. «Комбинированный F-тест 5 x 2 CV для сравнения алгоритмов обучения контролируемой классификации». Нейронные вычисления, т. 11, № 8, 1999, стр. 1885-1992.
[4] Blackard, J. А. и Д. Дж. Дин. «Сравнительная точность искусственных нейронных сетей и дискриминантный анализ при прогнозировании типов лесного покрова по картографическим переменным». Компьютеры и электроника в сельском хозяйстве том 24, выпуск 3, 1999, стр. 131-151.
[5] Ботту, Л. и Чих-Джен Лин. «Поддержка векторных машинных решателей». Крупносерийные машины ядра (L. Bottou, O. Chapelle, D. DeCoste, и J. Weston, eds.). Кембридж, Массачусетс: MIT Press, 2007.
[6] Букаерт. Р. «Выбор между двумя алгоритмами обучения на основе калиброванных тестов». Международная конференция по машинному обучению, стр. 51-58, 2003 год.
[7] Bouckaert, R. и Э. Франк. «Оценка возможности репликации тестов значимости для сравнения алгоритмов обучения». В разделе «Достижения в области обнаружения знаний и интеллектуального анализа данных» 8-я Тихоокеанско-азиатская конференция, 2004, стр. 3-12.
[8] Брейман, Л. «Предикторы пакетирования». Машинное обучение 26, 1996, стр. 123-140.
[9] Брейман, Л. «Случайные леса». Машинное обучение 45, 2001, стр. 5-32.
[10] Брейман, Л. https://www.stat.berkeley.edu/~breiman/RandomForests/
[11] Брейман, Л., Дж. Х. Фридман, Р. А. Ольшен и К. Дж. Стоун. Деревья классификации и регрессии. Бока Ратон, Флорида: Чепмен энд Холл, 1984.
[12] Кристианини, Н. и Дж. Шаве-Тейлор. Введение в поддержку векторных машин и других методов обучения на основе ядра. Кембридж, Великобритания: Cambridge University Press, 2000.
[13] Диттерих, Т. «Приблизительные статистические тесты для сравнения алгоритмов обучения контролируемой классификации». Нейронные вычисления, т. 10, № 7, 1998, стр. 1895-1923.
[14] Диттерих, Т. и Г. Бакири. «Решение проблем многоклассового обучения с помощью кодов вывода с исправлением ошибок». Журнал исследований искусственного интеллекта. Том 2, 1995, стр. 263-286.
[15] Эскалера, С., О. Пужоль и П. Радева. «Процесс декодирования в выходных кодах с тройной коррекцией ошибок». Транзакции IEEE по анализу шаблонов и машинному интеллекту. Том 32, выпуск 7, 2010, стр. 120-134.
[16] Эскалера, С., О. Пужоль и П. Радева. «Разделяемость троичных кодов для разреженных конструкций выходных кодов с исправлением ошибок». Повторная запись шаблона. Том 30, выпуск 3, 2009, стр. 285-297.
[17] Вентилятор, R.-E., P.-H. Чен и К.-Ж. Лин. «Выбор рабочего набора с использованием информации второго порядка для тренировочных машин поддержки векторов». Журнал исследований машинного обучения, том 6, 2005, стр. 1889-1918.
[18] Фагерлан, М.В., С. Лидерсен, П. Лааке. «Тест McNemar для двоичных согласованных пар данных: Mid-p и асимптотические лучше, чем точные условные». Методология медицинских исследований BMC. Том 13, 2013, стр. 1-8.
[19] Фрейнд, Y. «Более надежный алгоритм повышения». arXiv:0905.2138v1, 2009.
[20] Фройнд, Ю. и Р. Э. Шапире. «Теоретическое обобщение онлайн-обучения и приложения для повышения». J. of Computer and System Sciences, Vol. 55, 1997, pp. 119-139.
[21] Фридман, Дж. «Приближение жадной функции: повышающая градиент машина». Летописи статистики, т. 29, № 5, 2001, с. 1189-1232.
[22] Фридман, Дж., Т. Хасти и Р. Тибширани. «Аддитивная логистическая регрессия: статистическое представление повышения». Летописи статистики, т. 28, № 2, 2000, с. 337-407.
[23] Хасти, Т. и Р. Тибширани. «Классификация по парной муфте». Анналы статистики. Том 26, выпуск 2, 1998, стр. 451-471.
[24] Хасти, Т., Р. Тибширани и Дж. Фридман. элементы статистического обучения, второе издание. Нью-Йорк: Спрингер, 2008.
[25] Ho, C. H. и C. J. Lin. «Регрессия вектора крупномасштабной линейной поддержки». Журнал исследований машинного обучения, том 13, 2012, стр. 3323-3348.
[26] Хо, Т. К. «Метод случайного подпространства для построения решающих лесов». IEEE Transactions on Pattern Analysis and Machine Intelligence, том 20, № 8, 1998, стр. 832-844.
[27] Hsieh, C. J., K. W. Chang, C. J. Лин, С. С. Кеэрти и С. Сундарараджан. «Метод двухкоординатного спуска для крупномасштабного линейного SVM». Материалы 25-й Международной конференции по машинному обучению, ICML "08, 2001, pp. 408-415.
[28] Hsu, Chih-Wei, Chih-Chung Chang и Chih-Jen Lin. Практическое руководство по поддержке классификации векторов. Доступно по адресу https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf.
[29] Ху, К., X. Че, Л. Чжан и Д. Ю. «Оценка и выбор элементов на основе мягкого поля соседства». Нейрокомпьютер. Том 73, 2010, стр. 2114-2124.
[30] Кекман В., Т. -М. Хуан и М. Фогт. «Итеративный алгоритм одиночных данных для обучения машин ядра из огромных наборов данных: теория и производительность». В поддержке векторных машин: теория и приложения. Под редакцией Липо Вана, 255-274. Берлин: Спрингер-Верлаг, 2005.
[31] Кохави, Р. «Повышение точности классификаторов наивного Байеса: гибрид дерева решений». Материалы второй Международной конференции по открытию знаний и разработке данных, 1996 год.
[32] Ланкастер, H.O. «Тесты значимости в дискретных распределениях». JASA, том 56, номер 294, 1961, стр. 223-234.
[33] Лэнгфорд, Дж., Л. Ли и Т. Чжан. «Разреженное онлайн-обучение через усеченный градиент». Дж. Мач. Рес., т. 10, 2009, стр. 777-801.
[34] О, W.Y. «Регрессионные деревья с несмещенным выбором переменных и обнаружением взаимодействия». Statistica Sinica, Vol. 12, 2002, pp. 361-386.
[35] Ло, У.Я. и Ю.С. Ших. «Разбить методы выбора для деревьев классификации». Statistica Sinica, том 7, 1997, стр. 815-840.
[36] McNemar, Q. «Примечание об ошибке выборки разницы между коррелированными пропорциями или процентами». Психометрика, т. 12, № 2, 1947, с. 153-157.
[37] Майнсхаузен, Н. «Квантильные регрессионные леса». Журнал исследований машинного обучения, том 7, 2006, стр. 983-999.
[38] Мостеллер, Ф. «Некоторые статистические проблемы в измерении субъективной реакции на наркотики». Биометрия, т. 8, № 3, 1952, с. 220-226.
[39] Nocedal, J. и С. Дж. Райт. Численная оптимизация, 2-е изд., Нью-Йорк: Спрингер, 2006.
[40] Schapire, R.E. et al. «Повышение маржи: новое объяснение эффективности методов голосования». Летописи статистики, т. 26, № 5, 1998, с. 1651-1686.
[41] Шапире, Р. и Я. Сингер. «Улучшены алгоритмы повышения с использованием прогнозов с оценкой доверия». Машинное обучение, том 37, № 3, 1999, стр. 297-336.
[42] Шалев-Шварц, С., Я. Сингер и Н. Сребро. «Pegasos: Основной оценочный вычислитель субпогренов для SVM». Материалы 24-й Международной конференции по машинному обучению, ICML "07, 2007, стр. 807-814.
[43] Зайфферт, К., Т. Хошгофтаар, Ж. Хульсе и А. Наполитано. «RUSBoost: Повышение эффективности классификации при искажении данных обучения» 19-я Международная конференция по распознаванию образов, 2008, стр. 1-4.
[44] Вармут, М., Дж. Ляо и Г. Ратш. «Полностью корректирующие алгоритмы повышения, которые максимизируют запас». Proc. 23-я Int 'l. Conf. on Machine Learning, ACM, New York, 2006, pp. 1001-1008.
[45] Wu, T.F., C. J. Лин и Р. Венг. «Оценки вероятности для классификации нескольких классов по парному соединению». Журнал исследований машинного обучения. Том 5, 2004, стр. 975-1005.
[46] Мастер, S. J., Р. Д. Ноуок и М. А. Т. Фигередо. «Разреженная реконструкция по разделяемому приближению». Транс. Сиг. Proc., том 57, № 7, 2009, стр. 2479-2493.
[47] Сяо, Линь. «Методы двойного усреднения для упорядоченного стохастического обучения и онлайн-оптимизации». Дж. Мач. Рес., т. 11, 2010, стр. 2543-2596.
[48] Сюй, Вэй. «К оптимальному однопроходному крупномасштабному обучению со усредненным стохастическим градиентным спуском». CoRR, abs/1107.2490, 2011.
[49] Задрозный, В. «Уменьшение мультикласса до двоичного путем оценки вероятности связи». NIPS 2001: Proceedings of Advances in Neural Information Processing Systems 14, 2001, pp. 1041-1048.
[50] Задрозный, Б., Дж. Лэнгфорд и Н. Абэ. «Обучение, учитывающее затраты, по взвешиванию, пропорциональному затратам». Третья Международная конференция IEEE по анализу данных, 435-442. 2003.
[51] Чжоу, З.-Х. и X.-Y. Лю. «Обучение с учетом затрат для нескольких классов». Вычислительный интеллект. Том 26, выпуск 3, 2010, стр. 232-257 CiteSeerX.