Секущая обратная связь с одним шагом
net.trainFcn = 'trainoss'
[net,tr] = train(net,...)
trainoss сетевая учебная функция, которая обновляет вес и значения смещения согласно методу секущей с одним шагом.
net.trainFcn = 'trainoss' устанавливает сеть trainFcn свойство.
[net,tr] = train(net,...) обучает сеть с trainoss.
Обучение происходит согласно trainoss параметры обучения, показанные здесь с их значениями по умолчанию:
net.trainParam.epochs | 1000 | Максимальное количество эпох, чтобы обучаться |
net.trainParam.goal | 0 | Цель эффективности |
net.trainParam.max_fail | 6 | Максимальные отказы валидации |
net.trainParam.min_grad | 1e-10 | Минимальный градиент эффективности |
net.trainParam.searchFcn | 'srchbac' | Имя линии ищет стандартную программу, чтобы использовать |
net.trainParam.show | 25 | Эпохи между отображениями ( |
net.trainParam.showCommandLine | false | Сгенерируйте командную строку выход |
net.trainParam.showWindow | true | Покажите учебный графический интерфейс пользователя |
net.trainParam.time | inf | Максимальное время, чтобы обучаться в секундах |
Параметры связаны с методами поиска линии (не все используемые для всех методов):
net.trainParam.scal_tol | 20 | Разделитесь на |
net.trainParam.alpha | 0.001 | Масштабный коэффициент, который определяет достаточное сокращение |
net.trainParam.beta | 0.1 | Масштабный коэффициент, который определяет достаточно большой размер шага |
net.trainParam.delta | 0.01 | Начальный размер шага на шаге местоположения интервала |
net.trainParam.gama | 0.1 | Параметр, чтобы избежать маленьких сокращений эффективности, обычно устанавливайте на |
net.trainParam.low_lim | 0.1 | Нижний предел на изменении в размере шага |
net.trainParam.up_lim | 0.5 | Верхний предел изменения в размере шага |
net.trainParam.maxstep | 100 | Максимальная длина шага |
net.trainParam.minstep | 1.0e-6 | Минимальная длина шага |
net.trainParam.bmax | 26 | Максимальный размер шага |
Можно создать стандартную сеть, которая использует trainoss с feedforwardnet или cascadeforwardnet. Подготовить пользовательскую сеть, которая будет обучена с trainoss:
Установите net.trainFcn к 'trainoss'. Это устанавливает net.trainParam к trainossпараметры по умолчанию.
Установите net.trainParam свойства к требуемым значениям.
В любом случае, вызывая train с получившейся сетью обучает сеть с trainoss.
trainoss может обучить любую сеть пока ее вес, сетевой вход, и передаточные функции имеют производные функции.
Обратная связь используется, чтобы вычислить производные эффективности perf относительно веса и переменных X смещения. Каждая переменная настроена согласно следующему:
X = X + a*dX;
где dX поисковое направление. Параметр a выбран, чтобы минимизировать эффективность вдоль поискового направления. Поиск линии функционирует searchFcn используется, чтобы определить местоположение минимальной точки. Первое поисковое направление является отрицанием градиента эффективности. В последующих итерациях поисковое направление вычисляется из нового градиента и предыдущих шагов и градиентов, согласно следующей формуле:
dX = -gX + Ac*X_step + Bc*dgX;
где gX градиент, X_step изменение в весах на предыдущей итерации и dgX изменение в градиенте от последней итерации. См. Battiti (Нейронный Расчет, Издание 4, 1992, стр 141–166) для более детального обсуждения секущего алгоритма с одним шагом.
Обучение останавливается, когда любое из этих условий происходит:
Максимальное количество epochs (повторения) достигнуты.
Максимальная сумма time превышен.
Эффективность минимизирована к goal.
Градиент эффективности падает ниже min_grad.
Эффективность валидации увеличила больше, чем max_fail времена с прошлого раза это уменьшилось (при использовании валидации).
Battiti, R., “Методы Первого и второго порядка для изучения: Между наискорейшим спуском и методом Ньютона”, Нейронный Расчет, Издание 4, № 2, 1992, стр 141–166
traingdm | traingda | traingdx | trainlm | trainrp | traincgf | traincgb | trainscg | traincgp | trainbfg