Масштабированная обратная связь метода сопряженных градиентов
net.trainFcn = 'trainscg'
устанавливает сеть trainFcn
свойство.
[
обучает сеть с trainedNet
,tr
] = train(net
,...)trainscg
.
trainscg
сетевая учебная функция, которая обновляет вес и значения смещения согласно масштабированному методу сопряженных градиентов.
Обучение происходит согласно trainscg
параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs
— Максимальное количество эпох, чтобы обучаться. Значение по умолчанию 1000.
net.trainParam.show
— Эпохи между отображениями (NaN
ни для каких отображений). Значение по умолчанию равняется 25.
net.trainParam.showCommandLine
— Сгенерируйте командную строку выход. Значением по умолчанию является false
.
net.trainParam.showWindow
— Покажите учебный графический интерфейс пользователя. Значением по умолчанию является true
.
net.trainParam.goal
— Цель эффективности. Значение по умолчанию 0.
net.trainParam.time
— Максимальное время, чтобы обучаться в секундах. Значением по умолчанию является inf
.
net.trainParam.min_grad
— Минимальный градиент эффективности. Значением по умолчанию является 1e-6
.
net.trainParam.max_fail
— Максимальные отказы валидации. Значением по умолчанию является 6
.
net.trainParam.mu
— Параметр корректировки Marquardt. Значение по умолчанию 0.005.
net.trainParam.sigma
— Определите изменение в весе для второго производного приближения. Значением по умолчанию является 5.0e-5
.
net.trainParam.lambda
— Параметр для регулирования неопределенности Гессиана. Значением по умолчанию является 5.0e-7
.
trainscg
может обучить любую сеть пока ее вес, сетевой вход, и передаточные функции имеют производные функции. Обратная связь используется, чтобы вычислить производные эффективности perf
относительно веса и переменных X
смещения.
Масштабированный алгоритм метода сопряженных градиентов основан на сопряженных направлениях, как в traincgp
, traincgf
, и traincgb
, но этот алгоритм не выполняет поиск линии в каждой итерации. См. Moller (Нейронные сети, Издание 6, 1993, стр 525–533) для более детального обсуждения масштабированного алгоритма метода сопряженных градиентов.
Обучение останавливается, когда любое из этих условий происходит:
Максимальное количество epochs
(повторения) достигнуты.
Максимальная сумма time
превышен.
Эффективность минимизирована к goal
.
Градиент эффективности падает ниже min_grad
.
Эффективность валидации увеличила больше, чем max_fail
времена с прошлого раза это уменьшилось (при использовании валидации).
[1] Moller. Нейронные сети, Издание 6, 1993, стр 525–533
traingdm
| traingda
| traingdx
| trainlm
| trainrp
| traincgf
| traincgb
| trainbfg
| traincgp
| trainoss