[1] Agresti, A. Categorical Data Analysis, 2nd Ed. Hoboken, NJ: John Wiley & Sons, Inc., 2002.
[2] Allwein, E., R. Schapire, and Y. Singer. «Сокращение многоклассового числа до двоичного: Унифицирующий подход к маржинальным classifiers». Журнал исследований машинного обучения. Том 1, 2000, стр. 113-141.
[3] Alpaydin, E. «Combined 5 x 2 CV F Test for Comparing Supervised Classification Learning Algorithms». Нейронный Расчет, том 11, № 8, 1999, стр. 1885-1992.
[4] Блэкард, Дж. А. и Д. Дж. Дин. «Сравнительные точности искусственных нейронных сетей и дискриминантный анализ при прогнозировании типов лесного покрова по картографическим переменным». Компьютеры и электроника в сельском хозяйстве Vol. 24, Issue 3, 1999, pp. 131-151.
[5] Bottou, L., and Chih-Jen Lin. «Машина опорных векторов Solvers». Large Шкалы Kernel Machines (L. Bottou, O. Chapelle, D. DeCoste, and J. Weston, eds.). Cambridge, MA: MIT Press, 2007.
[6] Буккар. Р. «Выбор между двумя алгоритмами обучения на основе калиброванных тестов». Международная конференция по машинному обучению, стр. 51-58, 2003.
[7] Буккар, Р. и Э. Фрэнк. «Оценка реплицируемости тестов значимости для сравнения алгоритмов обучения». В Усовершенствования Knowledge Discovery and Data Mining, 8-я Тихоокеано-Азиатская конференция, 2004, стр. 3-12.
[8] Breiman, L. «Bagging Predictors». Машинное обучение 26, 1996, с. 123-140.
[9] Breiman, L. «Random Forests». Машинное обучение 45, 2001, стр. 5-32.
[10] Брейман, Л. https://www.stat.berkeley.edu/~breiman/RandomForests/
[11] Breiman, L., J. H. Friedman, R. A. Olshen, and C. J. Stone. Деревья классификации и регрессии. Бока Ратон, FL: Chapman & Hall, 1984.
[12] Christianini, N., and J. Shawe-Taylor. Введение в машины опорных векторов и других основанных на ядре методов обучения. Кембридж, Великобритания: Cambridge University Press, 2000.
[13] Диттерих, Т. «Аппроксимация статистических тестов для сравнения контролируемых алгоритмов классификационного обучения». Нейронный Расчет, том 10, № 7, 1998, стр. 1895-1923.
[14] Диттерих, Т., и Г. Бакири. «Решение многоклассовых задач обучения с помощью выходных кодов с исправлением ошибок». Журнал исследований искусственного интеллекта. Том 2, 1995, стр. 263-286.
[15] Escalera, S., O. Pujol, and P. Radeva. «О процессе декодирования в троичных выходных кодах с исправлением ошибок». Транзакции IEEE по шаблонному анализу и машинному анализу. Том 32, Выпуск 7, 2010, стр. 120-134.
[16] Эскалера, С., О. Пужоль, и П. Радева. «Разделяемость троичных кодов для разреженных проектов выходных кодов с исправлением ошибок». Pattern Recogn (Повторный вызов шаблона). Том 30, Выпуск 3, 2009, стр. 285-297.
[17] Вентилятор, R.-E., P.-H. Чен и К.-Ж. Lin. «Работа набора с использованием информации второго порядка для обучения машин опорных векторов». Journal of Машинного обучения Research, Vol 6, 2005, pp. 1889-1918.
[18] Fagerlan, M.W., S Lydersen, P. Laake. Тест МакНемара на двоичные совпадающие данные пар: Mid-p и Asymptotic лучше, чем точные условные. Методика медицинских исследований BMC. Том 13, 2013, стр. 1-8.
[19] Freund, Y. «Более надежный алгоритм усиления». arXiv:0905.2138v1, 2009.
[20] Freund, Y. and R. E. Schapire. Теоретически решающее обобщение онлайн-обучения и приложение к бустингу. J. Computer and System Sciences, Vol. 55, 1997, pp. 119-139.
[21] Фридман, Дж. «Жадное приближение функций: градиентная бустерная машина». Анналы статистики, том 29, № 5, 2001, стр. 1189-1232.
[22] Фридман, Дж., Т. Хасти и Р. Тибширани. «Аддитивная логистическая регрессия: статистический взгляд на увеличение». Анналы статистики, том 28, № 2, 2000, стр. 337-407.
[23] Хасти, Т. и Р. Тибширани. Классификация по парному соединению. Анналы статистики. Том 26, Выпуск 2, 1998, стр. 451-471.
[24] Хасти, Т., Р. Тибширани и Дж. Фридман. Элементы статистического обучения, второе издание. Нью-Йорк: Спрингер, 2008.
[25] Ho, C. H. and C. J. Lin. «Крупномасштабная линейная Поддержка Вектора регрессия». Journal of Машинное Обучение Research, Vol. 13, 2012, pp. 3323-3348.
[26] Ho, T. K. «Метод случайного подпространства для построения лесов для принятия решений». Транзакции IEEE по анализу шаблонов и машинной разведке, том 20, № 8, 1998, стр. 832-844.
[27] Hsieh, C. J., K. W. Chang, C. J. Лин, С. С. Кеерти и С. Сундарараджан. Метод двойного координатного спуска для крупномасштабного линейного SVM. Материалы 25-й Международной конференции по машинному обучению, ICML "08, 2001, стр. 408-415.
[28] Hsu, Chih-Wei, Chih-Chung Chang, and Chih-Jen Line. Практическое руководство по поддержке классификации векторов. Доступно в https://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide.pdf
.
[29] Hu, Q., X. Che, L. Zhang, and D. Yu. Оценка и выбор функций на основе мягкой маржи по соседству. Нейровычисление. Том 73, 2010, с. 2114-2124.
[30] Кечман В., Т. -М. Хуан и М. Фогт. Итерационный алгоритм единичных данных для обучения машин ядра из огромных наборов данных: теория и эффективность. В машинах опорных векторов: теория и приложения. Под редакцией Липо Ван, 255-274. Берлин: Springer-Verlag, 2005.
[31] Kohavi, R. «Масштабирование точности наивных классификаторов Байеса: гибрид дерева решений». Материалы второй Международной конференции по открытию знаний и майнингу данных, 1996 год.
[32] Ланкастер, H.O. «Тесты значимости в дискретных распределениях». JASA, том 56, номер 294, 1961, стр. 223-234.
[33] Лэнгфорд, Дж., Л. Ли, и Т. Чжан. «Разреженное онлайн-обучение через усеченный градиент». Дж. Мач. Учись. Рес., том 10, 2009, стр. 777-801.
[34] Loh, W.Y. «Regression Trees with Unbiased Variable Selection and Interaction Detection». Statistica Sinica, Vol. 12, 2002, pp. 361-386.
[35] Loh, W.Y. and Y.S. Shih. «Разделение методов выбора для деревьев классификации». Statistica Sinica, Vol. 7, 1997, pp. 815-840.
[36] McNemar, Q. «Примечание об ошибке дискретизации различий между коррелированными пропорциями или процентами». Психометрика, том 12, № 2, 1947, с. 153-157.
[37] Meinshausen, N. «Quantle Regression Forests». Journal of Машинное Обучение Research, Vol. 7, 2006, pp. 983-999.
[38] Mosteller, F. «Некоторые статистические проблемы в измерении субъективного ответа на наркотики». Биометрия, том 8, № 3, 1952, с. 220-226.
[39] Nocedal, J. and S. J. Wright. Численная оптимизация, 2-е изд., Нью-Йорк: Спрингер, 2006.
[40] Schapire, R. E. et al. «Увеличение разницы: новое объяснение эффективности методов голосования». Анналы статистики, том 26, № 5, 1998, стр. 1651-1686.
[41] Schapire, R. and Y. Singer. «Улучшенные алгоритмы бустинга с использованием доверительных предсказаний». Машинное обучение, том 37, № 3, 1999, стр. 297-336.
[42] Шалев-Шварц, С., Я. Сингер, и Н. Сребру. Pegasos: Primal Estimated Sub-Gradient Solver for SVM (неопр.) (недоступная ссылка). Материалы 24-й Международной конференции по машинному обучению, ICML "07, 2007, стр. 807-814.
[43] Seiffert, C., T. Khoshgoftaar, J. Hulse, and A. Napolitano. «RUSBoost: Повышение эффективности классификации при искажении обучающих данных». 19-я Международная конференция по распознаванию шаблона, 2008, стр. 1-4.
[44] Warmuth, M., J. Liao, and G. Ratsch. «Полностью корректирующие алгоритмы повышения, которые максимизируют запас». Proc. 23-й Int 'l. Конф. по машинному обучению, ACM, Нью-Йорк, 2006, стр. 1001-1008.
[45] Wu, T. F., C. J. Лин и Р. Венг. «Оценки вероятностей для многоклассовой классификации по парным связям». Журнал исследований машинного обучения. Том 5, 2004, стр. 975-1005.
[46] Райт, С. Дж., Р. Д. Новак, и М. А. Т. Фигейредо. «Разреженная реконструкция с помощью разделяемого приближения». Транс. Сиг. Proc., Том 57, № 7, 2009, стр. 2479-2493.
[47] Xiao, Lin. «Dual Aververaging Methods for Regularized Stochastic Learning and Online Optimization». Дж. Мач. Учись. Res., Vol. 11, 2010, pp. 2543-2596.
[48] Сюй, Вэй. «К оптимальной однопроходной большой Шкале обучению со средним стохастическим градиентным спуском». CoRR, abs/1107.2490, 2011.
[49] Задрозный, B. «Уменьшение мультикласса до двоичного путем связывания оценок вероятностей». NIPS 2001: Труды по усовершенствованиям в системах нейронной обработки информации 14, 2001, стр. 1041-1048.
[50] Задрозный, Б., Дж. Лэнгфорд, и Н. Абэ. «Экономичное обучение по пропорциональному по стоимости примеру». Третья Международная конференция IEEE по майнингу данных, 435-442. 2003.
[51] Чжоу, Z.-H. и X.-Y. Лю. «При многоклассовом учитывающем затраты обучении». Вычислительный интеллект. Том 26, Выпуск 3, 2010, стр. 232-257 CiteSeerX.