Масштабированная обратная связь метода сопряженных градиентов
net.trainFcn = 'trainscg' устанавливает сеть trainFcn свойство.
[ обучает сеть с trainedNet,tr] = train(net,...)trainscg.
trainscg сетевая учебная функция, которая обновляет вес и значения смещения согласно масштабированному методу сопряженных градиентов.
Обучение происходит согласно trainscg параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs — Максимальное количество эпох, чтобы обучаться. Значение по умолчанию 1000.
net.trainParam.show — Эпохи между отображениями (NaN ни для каких отображений). Значение по умолчанию равняется 25.
net.trainParam.showCommandLine — Сгенерируйте командную строку выход. Значением по умолчанию является false.
net.trainParam.showWindow — Покажите учебный графический интерфейс пользователя. Значением по умолчанию является true.
net.trainParam.goal — Цель эффективности. Значение по умолчанию 0.
net.trainParam.time — Максимальное время, чтобы обучаться в секундах. Значением по умолчанию является inf.
net.trainParam.min_grad — Минимальный градиент эффективности. Значением по умолчанию является 1e-6.
net.trainParam.max_fail — Максимальные отказы валидации. Значением по умолчанию является 6.
net.trainParam.mu — Параметр корректировки Marquardt. Значение по умолчанию 0.005.
net.trainParam.sigma — Определите изменение в весе для второго производного приближения. Значением по умолчанию является 5.0e-5.
net.trainParam.lambda — Параметр для регулирования неопределенности Гессиана. Значением по умолчанию является 5.0e-7.
trainscg может обучить любую сеть пока ее вес, сетевой вход, и передаточные функции имеют производные функции. Обратная связь используется, чтобы вычислить производные эффективности perf относительно веса и переменных X смещения.
Масштабированный алгоритм метода сопряженных градиентов основан на сопряженных направлениях, как в traincgp, traincgf, и traincgb, но этот алгоритм не выполняет поиск линии в каждой итерации. См. Moller (Нейронные сети, Издание 6, 1993, стр 525–533) для более детального обсуждения масштабированного алгоритма метода сопряженных градиентов.
Обучение останавливается, когда любое из этих условий происходит:
Максимальное количество epochs (повторения) достигнуты.
Максимальная сумма time превышен.
Эффективность минимизирована к goal.
Градиент эффективности падает ниже min_grad.
Эффективность валидации увеличила больше, чем max_fail времена с прошлого раза это уменьшилось (при использовании валидации).
[1] Moller. Нейронные сети, Издание 6, 1993, стр 525–533
traingdm | traingda | traingdx | trainlm | trainrp | traincgf | traincgb | trainbfg | traincgp | trainoss