Масштабированное сопряженное обратное распространение градиента
net.trainFcn = 'trainscg'
устанавливает сетевую trainFcn
свойство.
[
обучает сеть с trainedNet
,tr
] = train(net
,...)trainscg
.
trainscg
является сетевой функцией обучения, которая обновляет значения веса и смещения согласно масштабному сопряженному методу градиента.
Обучение происходит согласно trainscg
параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs
- Максимальное количество эпох для обучения. Значение по умолчанию является 1000.
net.trainParam.show
- Эпохи между отображениями (NaN
при отсутствии отображений). Значение по умолчанию является 25.
net.trainParam.showCommandLine
- Сгенерируйте выход в командной строке. Значение по умолчанию false
.
net.trainParam.showWindow
- Показать обучающий графический интерфейс пользователя. Значение по умолчанию true
.
net.trainParam.goal
- Цель эффективности. Значение по умолчанию 0.
net.trainParam.time
- Максимальное время обучения в секундах. Значение по умолчанию inf
.
net.trainParam.min_grad
- Минимальный градиент эффективности. Значение по умолчанию 1e-6
.
net.trainParam.max_fail
- Максимальные отказы в валидации. Значение по умолчанию 6
.
net.trainParam.mu
- параметр регулировки Марквардта. Значение по умолчанию является 0.005.
net.trainParam.sigma
- Определите изменение веса для второго производного приближения. Значение по умолчанию 5.0e-5
.
net.trainParam.lambda
- Параметр для регулирования неопределенности Гессиана. Значение по умолчанию 5.0e-7
.
trainscg
может обучать любую сеть, пока ее вес, чистый вход и передаточные функции имеют производные функции. Backpropagation используется для вычисления производных от perf
эффективности относительно переменных веса и смещения
X
.
Масштабированный алгоритм сопряженного градиента основан на сопряженных направлениях, как в traincgp
, traincgf
, и traincgb
, но этот алгоритм не выполняет поиск по линии при каждой итерации. См. Моллер (Neural Networks, Vol. 6, 1993, pp. 525-533) для более подробного обсуждения масштабированного алгоритма сопряженного градиента.
Обучение останавливается, когда происходит любое из следующих условий:
Максимальное количество epochs
(повторения) достигается.
Максимальное количество time
превышено.
Эффективность минимизирована до goal
.
Градиент эффективности падает ниже min_grad
.
Эффективность валидации увеличилась более чем max_fail
раз с момента последнего уменьшения (при использовании валидации).
[1] Моллер. Нейронные сети, том 6, 1993, стр. 525-533
trainbfg
| traincgb
| traincgf
| traincgp
| traingda
| traingdm
| traingdx
| trainlm
| trainoss
| trainrp