layrecnet

Рекуррентная нейронная сеть слоя

Описание

пример

layrecnet(layerDelays,hiddenSizes,trainFcn) берет эти аргументы:

  • Вектор-строка из увеличения 0 или положительных задержек, layerDelays

  • Вектор-строка из одного или нескольких размеров скрытого слоя, hiddenSizes

  • Функция обучения обратной связи, trainFcn

и возвращает рекуррентную нейронную сеть слоя.

Рекуррентные нейронные сети слоя похожи на сети прямого распространения, за исключением того, что каждый слой имеет текущую связь с задержкой касания, сопоставленной с ним. Это позволяет сети иметь бесконечный динамический ответ на входные данные временных рядов. Эта сеть похожа на задержку (timedelaynet) и распределенная задержка (distdelaynet) нейронные сети, которые имеют конечные входные ответы.

Примеры

свернуть все

В этом примере показано, как использовать рекуррентную нейронную сеть слоя, чтобы решить простую задачу временных рядов.

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);
view(net)
Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf =

   6.1239e-11

Входные параметры

свернуть все

Нуль или положительный вход задерживаются в виде увеличивающегося вектора-строки.

Размеры скрытых слоев в виде вектора-строки из одного или нескольких элементов.

Учебное имя функции в виде одного из следующих.

Учебная функцияАлгоритм
'trainlm'

Levenberg-Marquardt

'trainbr'

Байесова регуляризация

'trainbfg'

Квазиньютон BFGS

'trainrp'

Устойчивая обратная связь

'trainscg'

Масштабированный метод сопряженных градиентов

'traincgb'

Метод сопряженных градиентов с Перезапусками Powell/Beale

'traincgf'

Метод сопряженных градиентов Флетчера-Пауэлла

'traincgp'

Метод сопряженных градиентов Полака-Рибиера

'trainoss'

Один секанс шага

'traingdx'

Переменный градиентный спуск скорости обучения

'traingdm'

Градиентный спуск с импульсом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки можно следующим образом: 'traingdx'

Для получения дополнительной информации об учебных функциях смотрите, Обучают и Применяют Многоуровневые Мелкие Нейронные сети и Выбирают Multilayer Neural Network Training Function.

Типы данных: char

Смотрите также

| | | | |

Представленный в R2010b