Линейный шаблон ученика классификации
templateLinear
создает шаблон, подходящий для подбора кривой линейной модели классификации к высоко-размерным данным для проблем мультикласса.
Шаблон задает бинарную модель ученика, тип регуляризации и силу и решатель, среди прочего. После создания шаблона обучите модель путем передачи шаблона и данных к fitcecoc
.
t = templateLinear()
t = templateLinear(Name,Value)
возвращает линейный шаблон ученика классификации.t
= templateLinear()
Если вы задаете шаблон по умолчанию, то программное обеспечение использует значения по умолчанию для всех входных параметров во время обучения.
возвращает шаблон с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Например, можно задать, чтобы реализовать логистическую регрессию, задать тип регуляризации или силу, или задать решатель, чтобы использовать для минимизации целевой функции.t
= templateLinear(Name,Value
)
Если вы отображаете t
в Командном окне, то все опции кажутся пустыми ([]
) кроме опций, что вы задаете аргументы пары "имя-значение" использования. Во время обучения программное обеспечение использует значения по умолчанию для пустых опций.
Это - лучшая практика ориентировать вашу матрицу предиктора так, чтобы наблюдения соответствовали столбцам и задавать 'ObservationsIn','columns'
. В результате можно испытать значительное сокращение во время выполнения оптимизации.
Для лучшей точности оптимизации, если данные о предикторе являются высоко-размерными и Regularization
является 'ridge'
, установите любую из этих комбинаций для Solver
:
'sgd'
'asgd'
'dual'
, если Learner
является 'svm'
{'sgd','lbfgs'}
{'asgd','lbfgs'}
{'dual','lbfgs'}
, если Learner
является 'svm'
Другие комбинации могут привести к плохой точности оптимизации.
Для лучшей точности оптимизации, если данные о предикторе являются умеренными - через низко-размерный и Regularization
, 'ridge'
, установите Solver
на 'bfgs'
.
Если Regularization
является 'lasso'
, установите любую из этих комбинаций для Solver
:
'sgd'
'asgd'
'sparsa'
{'sgd','sparsa'}
{'asgd','sparsa'}
При выборе между SGD и ASGD, полагайте что:
SGD занимает меньше времени на итерацию, но требует, чтобы сходилось больше итераций.
ASGD требует, чтобы меньше итераций сходилось, но занимает больше времени на итерацию.
Если данные о предикторе имеют немного наблюдений, но много переменных прогноза, то:
Задайте 'PostFitBias',true
.
Для SGD или решателей ASGD, набор PassLimit
к положительному целому числу, которое больше, чем 1, например, 5 или 10. Эта установка часто приводит к лучшей точности.
Для SGD и решателей ASGD, BatchSize
влияет на уровень сходимости.
Если BatchSize
является слишком маленьким, то программное обеспечение достигает минимума во многих итерациях, но вычисляет градиент на итерацию быстро.
Если BatchSize
является слишком большим, то программное обеспечение достигает минимума в меньшем количестве итераций, но вычисляет градиент на итерацию медленно.
Большой темп обучения (см. LearnRate
) сходимость ускорения к минимуму, но может привести к расхождению (то есть, переступив через минимум). Небольшие темпы обучения гарантируют сходимость минимуму, но могут вести, чтобы замедлить завершение.
Если Regularization
является 'lasso'
, то экспериментируйте с различными значениями TruncationPeriod
. Например, установите TruncationPeriod
на 1
, 10
, и затем 100
.
Для эффективности программное обеспечение не стандартизирует данные о предикторе. Чтобы стандартизировать данные о предикторе (X
), войти
X = bsxfun(@rdivide,bsxfun(@minus,X,mean(X,2)),std(X,0,2));
Код требует, чтобы вы ориентировали предикторы и наблюдения как строки и столбцы X
, соответственно. Кроме того, для экономики использования памяти код заменяет исходные данные о предикторе стандартизированные данные.
[1] Се, C. J. К. В. Чанг, К. Дж. Лин, С. С. Кирти и С. Сандарарэджэн. “Двойной Координатный Метод Спуска для Крупномасштабного Линейного SVM”. Продолжения 25-й Международной конференции по вопросам Машинного обучения, ICML ’08, 2001, стр 408–415.
[2] Лэнгфорд, J., Л. Ли и Т. Чжан. “Разреженное Дистанционное обучение Через Усеченный Градиент”. Дж. Мах. Учиться. Res., Издание 10, 2009, стр 777–801.
[3] Nocedal, J. и С. Дж. Райт. Числовая Оптимизация, 2-й редактор, Нью-Йорк: Спрингер, 2006.
[4] Шалев-Шварц, S., И. Зингер и Н. Сребро. “Pegasos: Основной Предполагаемый Решатель Подградиента для SVM”. Продолжения 24-й Международной конференции по вопросам Машинного обучения, ICML ’07, 2007, стр 807–814.
[5] Мастер, S. J. Р. Д. Ноуок и М. А. Т. Фигередо. “Разреженная Реконструкция Отделимым Приближением”. Сигнал сделки Proc., Издание 57, № 7, 2009, стр 2479–2493.
[6] Сяо, Лин. “Двойные Методы усреднения для Упорядоченного Стохастического Изучения и Онлайновой Оптимизации”. Дж. Мах. Учиться. Res., Издание 11, 2010, стр 2543–2596.
[7] Сюй, Вэй. “К Оптимальному Один Крупный масштаб Передачи Изучение с Усредненным Стохастическим Спуском Градиента”. CoRR, abs/1107.2490, 2011.