timedelaynet

Нейронная сеть с временной задержкой

Описание

пример

timedelaynet(inputDelays,hiddenSizes,trainFcn) берет эти аргументы:

  • Вектор-строка из увеличения 0 или положительных входных задержек, inputDelays

  • Вектор-строка из одного или нескольких размеров скрытого слоя, hiddenSizes

  • Учебная функция, trainFcn

и возвращает нейронную сеть с временной задержкой.

Сети с временной задержкой похожи на сети прямого распространения, за исключением того, что входной вес имеет линию задержки касания, сопоставленную с ним. Это позволяет сети иметь конечный динамический ответ на входные данные временных рядов. Эта сеть также похожа на распределенную нейронную сеть задержки (distdelaynet), который имеет задержки на весах слоя в дополнение к входному весу.

Примеры

свернуть все

Разделите набор обучающих данных. Используйте Xnew сделать предсказание в режиме замкнутого цикла позже.

[X,T] = simpleseries_dataset;
Xnew = X(81:100);
X = X(1:80);
T = T(1:80);

Обучите сеть с временной задержкой и симулируйте ее на первых 80 наблюдениях.

net = timedelaynet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);
view(net)

Вычислите производительность сети.

[Y,Xf,Af] = net(Xs,Xi,Ai);
perf = perform(net,Ts,Y);

Запустите предсказание в течение 20 тактов вперед в режиме замкнутого цикла.

[netc,Xic,Aic] = closeloop(net,Xf,Af);
view(netc)

y2 = netc(Xnew,Xic,Aic);

Входные параметры

свернуть все

Нуль или положительный вход задерживаются в виде увеличивающегося вектора-строки.

Размеры скрытых слоев в виде вектора-строки из одного или нескольких элементов.

Учебное имя функции в виде одного из следующих.

Учебная функцияАлгоритм
'trainlm'

Levenberg-Marquardt

'trainbr'

Байесова регуляризация

'trainbfg'

Квазиньютон BFGS

'trainrp'

Устойчивая обратная связь

'trainscg'

Масштабированный метод сопряженных градиентов

'traincgb'

Метод сопряженных градиентов с Перезапусками Powell/Beale

'traincgf'

Метод сопряженных градиентов Флетчера-Пауэлла

'traincgp'

Метод сопряженных градиентов Полака-Рибиера

'trainoss'

Один секанс шага

'traingdx'

Переменный градиентный спуск скорости обучения

'traingdm'

Градиентный спуск с импульсом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки можно следующим образом: 'traingdx'

Для получения дополнительной информации об учебных функциях смотрите, Обучают и Применяют Многоуровневые Мелкие Нейронные сети и Выбирают Multilayer Neural Network Training Function.

Типы данных: char

Смотрите также

| | | |

Представленный в R2010b