narnet

Нелинейная авторегрессивная нейронная сеть

Описание

пример

narnet(feedbackDelays,hiddenSizes,feedbackMode,trainFcn) берет эти аргументы:

  • Вектор-строка из увеличения 0 или задержек положительной обратной связи, feedbackDelays

  • Вектор-строка из одного или нескольких размеров скрытого слоя, hiddenSizes

  • Тип обратной связи, feedbackMode

  • Учебная функция, trainFcn

и возвращает нейронную сеть NAR.

Можно обучить NAR (нелинейный авторегрессивный) нейронные сети предсказывать временные ряды от прошлых значений того ряда.

Примеры

свернуть все

Обучите нелинейную авторегрессивную нейронную сеть (NAR) и предскажите на новых данных временных рядов. Предсказание последовательности значений во временных рядах также известно как многошаговое прогнозирование. Сети с обратной связью могут выполнить многошаговые прогнозирования. Когда внешняя обратная связь отсутствует, сети с обратной связью могут продолжить предсказывать при помощи внутренней обратной связи. В предсказании NAR будущие значения временных рядов предсказаны только от прошлых значений того ряда.

Загрузите простые данные о предсказании временных рядов.

T = simplenar_dataset;

Создайте сеть NAR. Задайте задержки обратной связи и размер скрытых слоев.

net = narnet(1:2,10);

Подготовьте данные временных рядов с помощью preparets. Эта функция автоматически переключает вход, и целевые временные ряды количеством шагов должны были заполнить начальный вход и состояния задержки слоя.

[Xs,Xi,Ai,Ts] = preparets(net,{},{},T);

Методические рекомендации должны полностью создать сеть в разомкнутом контуре, и затем преобразовать сеть к замкнутому циклу для многоступенчатого вперед предсказания. Затем сеть с обратной связью может предсказать столько будущих значений, сколько вы хотите. Если вы симулируете нейронную сеть в режиме с обратной связью только, сеть может выполнить столько же предсказаний сколько количество временных шагов во входном ряду.

Обучите сеть NAR. train функция обучает сеть в разомкнутом контуре (последовательно-параллельная архитектура), включая валидацию и тестирующие шаги.

net = train(net,Xs,Ts,Xi,Ai);

Отобразите обучивший сеть.

view(net)

Вычислите сетевой выход Y, итоговые состояния ввода Xf, и последний слой утверждает Af из сети разомкнутого контура от сетевого входа Xs, начальные состояния ввода Xi, и начальные состояния слоя Ai.

[Y,Xf,Af] = net(Xs,Xi,Ai);

Вычислите производительность сети.

perf = perform(net,Ts,Y)
perf =

   1.0100e-09

Чтобы предсказать выход для следующих 20 временных шагов, сначала симулируйте сеть в режиме с обратной связью. Итоговые состояния ввода Xf и состояния слоя Af из сети net разомкнутого контура станьте начальными состояниями ввода Xic и состояния слоя Aic из сети netc с обратной связью.

[netc,Xic,Aic] = closeloop(net,Xf,Af);

Отобразите сеть с обратной связью. Сеть имеет только один вход. В режиме с обратной связью этот вход соединяется с выходом. Прямая задержанная выходная связь заменяет задержанный целевой вход.

view(netc)

Чтобы симулировать сеть 20 временных шагов вперед, введите массив пустой ячейки длины 20. Сеть требует только начальных условий, данных в Xic и Aic.

Yc = netc(cell(0,20),Xic,Aic)
Yc =

  1x20 cell array

  Columns 1 through 5

    {[0.8346]}    {[0.3329]}    {[0.9084]}    {[1.0000]}    {[0.3190]}

  Columns 6 through 10

    {[0.7329]}    {[0.9801]}    {[0.6409]}    {[0.5146]}    {[0.9746]}

  Columns 11 through 15

    {[0.9077]}    {[0.2807]}    {[0.8651]}    {[0.9897]}    {[0.4093]}

  Columns 16 through 20

    {[0.6838]}    {[0.9976]}    {[0.7007]}    {[0.4311]}    {[0.9660]}

Входные параметры

свернуть все

Нулевая или положительная обратная связь задерживается в виде увеличивающегося вектора-строки.

Размеры скрытых слоев в виде вектора-строки из одного или нескольких элементов.

Тип обратной связи в виде любого 'open', 'closed', или 'none'.

Учебное имя функции в виде одного из следующих.

Учебная функцияАлгоритм
'trainlm'

Levenberg-Marquardt

'trainbr'

Байесова регуляризация

'trainbfg'

Квазиньютон BFGS

'trainrp'

Устойчивая обратная связь

'trainscg'

Масштабированный метод сопряженных градиентов

'traincgb'

Метод сопряженных градиентов с Перезапусками Powell/Beale

'traincgf'

Метод сопряженных градиентов Флетчера-Пауэлла

'traincgp'

Метод сопряженных градиентов Полака-Рибиера

'trainoss'

Один секанс шага

'traingdx'

Переменный градиентный спуск скорости обучения

'traingdm'

Градиентный спуск с импульсом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки можно следующим образом: 'traingdx'

Для получения дополнительной информации об учебных функциях смотрите, Обучают и Применяют Многоуровневые Мелкие Нейронные сети и Выбирают Multilayer Neural Network Training Function.

Типы данных: char

Представленный в R2010b
Для просмотра документации необходимо авторизоваться на сайте