layrecnet

Слой рекуррентной нейронной сети

Описание

пример

layrecnet(layerDelays,hiddenSizes,trainFcn) принимает следующие аргументы:

  • Вектор-строка с увеличением 0 или положительными задержками, layerDelays

  • Вектор-строка одного или нескольких скрытых размеров слоя, hiddenSizes

  • Функция обучения Backpropagation, trainFcn

и возвращает слой рекуррентной нейронной сети.

Рекуррентные нейронные сети уровня аналогичны сетям прямого распространения, за исключением того, что каждый слой имеет рекуррентное соединение с задержкой отвода, связанной с ним. Это позволяет сети иметь бесконечную динамическую характеристику на входные данные временных рядов. Эта сеть аналогична временной задержке (timedelaynet) и распределенную задержку (distdelaynet) нейронные сети, которые имеют конечные входные отклики.

Примеры

свернуть все

Этот пример показывает, как использовать рекуррентную нейронную сеть слоя для решения простой задачи временных рядов.

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);
view(net)
Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf =

   6.1239e-11

Входные параметры

свернуть все

Нуль или положительные задержки входа, указанные как увеличение вектора-строки.

Размеры скрытых слоев, заданные как вектор-строка одного или нескольких элементов.

Имя функции обучения, заданное как одно из следующих.

Функция обученияАлгоритм
'trainlm'

Левенберг-Марквардт

'trainbr'

Байесовская регуляризация

'trainbfg'

BFGS Квази-Ньютон

'trainrp'

Упругое обратное распространение

'trainscg'

Масштабированный сопряженный градиент

'traincgb'

Сопряженный градиент с перезапусками Powell/Beale

'traincgf'

Сопряженный градиент Флетчера-Пауэлла

'traincgp'

Сопряженный градиент Полак-Рибьер

'trainoss'

Одношаговый секант

'traingdx'

Градиентный спуск переменной скорости обучения

'traingdm'

Градиентный спуск с моментом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки следующим образом: 'traingdx'

Для получения дополнительной информации о функциях обучения смотрите Train и Применение Многослойных Неглубоких Нейронных Сетей и Выберите Многослойную Функцию Обучения Нейронной Сети.

Типы данных: char

Введенный в R2010b
Для просмотра документации необходимо авторизоваться на сайте