Масштабированное обратное распространение сопряженного градиента
net.trainFcn = 'trainscg' устанавливает сеть trainFcn собственность.
[ обучает сеть с помощью trainedNet,tr] = train(net,...)trainscg.
trainscg - сетевая обучающая функция, которая обновляет значения веса и смещения в соответствии с методом масштабированного сопряженного градиента.
Обучение происходит в соответствии с trainscg параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs - Максимальное количество периодов для обучения. Значение по умолчанию - 1000.
net.trainParam.show - Эпохи между дисплеями (NaN для без дисплеев). Значение по умолчанию - 25.
net.trainParam.showCommandLine - Создание выходных данных командной строки. Значение по умолчанию: false.
net.trainParam.showWindow - Показать обучающий графический интерфейс пользователя. Значение по умолчанию: true.
net.trainParam.goal - Цель производительности. Значение по умолчанию - 0.
net.trainParam.time - Максимальное время тренировки в секундах. Значение по умолчанию: inf.
net.trainParam.min_grad - Минимальный градиент производительности. Значение по умолчанию: 1e-6.
net.trainParam.max_fail - Максимальное количество сбоев проверки. Значение по умолчанию: 6.
net.trainParam.mu - Параметр регулировки Марквардта. Значение по умолчанию - 0,005.
net.trainParam.sigma - Определить изменение веса для аппроксимации второй производной. Значение по умолчанию: 5.0e-5.
net.trainParam.lambda - Параметр регулирования неопределённости гессена. Значение по умолчанию: 5.0e-7.
trainscg может обучать любую сеть, если ее функции веса, чистого ввода и переноса имеют производные функции. Обратное распространение используется для расчета производных производительности perf в отношении переменных веса и смещения X.
Масштабированный алгоритм сопряженного градиента основан на направлениях сопряжений, как в traincgp, traincgf, и traincgb, но этот алгоритм не выполняет поиск строк в каждой итерации. Более подробное обсуждение алгоритма масштабированного сопряженного градиента см. в Moller (Neural Networks, Vol. 6, 1993, стр. 525-533).
Обучение прекращается при возникновении любого из следующих условий:
Максимальное количество epochs (повторы) достигается.
Максимальная сумма time превышено.
Производительность минимизирована для goal.
Градиент производительности падает ниже min_grad.
Производительность проверки возросла более чем max_fail раз с момента последнего уменьшения (при использовании проверки).
[1] Моллер. Нейронные сети, том 6, 1993, стр. 525-533
trainbfg | traincgb | traincgf | traincgp | traingda | traingdm | traingdx | trainlm | trainoss | trainrp