Масштабированное сопряженное обратное распространение градиента
net.trainFcn = 'trainscg' устанавливает сетевую trainFcn свойство.
[ обучает сеть с trainedNet,tr] = train(net,...)trainscg.
trainscg является сетевой функцией обучения, которая обновляет значения веса и смещения согласно масштабному сопряженному методу градиента.
Обучение происходит согласно trainscg параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs - Максимальное количество эпох для обучения. Значение по умолчанию является 1000.
net.trainParam.show - Эпохи между отображениями (NaN при отсутствии отображений). Значение по умолчанию является 25.
net.trainParam.showCommandLine - Сгенерируйте выход в командной строке. Значение по умолчанию false.
net.trainParam.showWindow - Показать обучающий графический интерфейс пользователя. Значение по умолчанию true.
net.trainParam.goal - Цель эффективности. Значение по умолчанию 0.
net.trainParam.time - Максимальное время обучения в секундах. Значение по умолчанию inf.
net.trainParam.min_grad - Минимальный градиент эффективности. Значение по умолчанию 1e-6.
net.trainParam.max_fail - Максимальные отказы в валидации. Значение по умолчанию 6.
net.trainParam.mu - параметр регулировки Марквардта. Значение по умолчанию является 0.005.
net.trainParam.sigma - Определите изменение веса для второго производного приближения. Значение по умолчанию 5.0e-5.
net.trainParam.lambda - Параметр для регулирования неопределенности Гессиана. Значение по умолчанию 5.0e-7.
trainscg может обучать любую сеть, пока ее вес, чистый вход и передаточные функции имеют производные функции. Backpropagation используется для вычисления производных от perf эффективности относительно переменных веса и смещения X.
Масштабированный алгоритм сопряженного градиента основан на сопряженных направлениях, как в traincgp, traincgf, и traincgb, но этот алгоритм не выполняет поиск по линии при каждой итерации. См. Моллер (Neural Networks, Vol. 6, 1993, pp. 525-533) для более подробного обсуждения масштабированного алгоритма сопряженного градиента.
Обучение останавливается, когда происходит любое из следующих условий:
Максимальное количество epochs (повторения) достигается.
Максимальное количество time превышено.
Эффективность минимизирована до goal.
Градиент эффективности падает ниже min_grad.
Эффективность валидации увеличилась более чем max_fail раз с момента последнего уменьшения (при использовании валидации).
[1] Моллер. Нейронные сети, том 6, 1993, стр. 525-533
trainbfg | traincgb | traincgf | traincgp | traingda | traingdm | traingdx | trainlm | trainoss | trainrp