cascadeforwardnet

Сгенерируйте прямую каскадом нейронную сеть

Описание

пример

net = cascadeforwardnet(hiddenSizes,trainFcn) возвращает прямую каскадом нейронную сеть с размером скрытого слоя hiddenSizes и учебная функция, заданная trainFcn.

Прямые каскадом сети похожи на сети прямого распространения, но включают связь от входа и каждого предыдущего слоя к следующим слоям.

Как с сетями прямого распространения, две или больше каскадных сети слоя могут изучить любое конечное отношение ввода - вывода произвольно хорошо, учитывая достаточные скрытые нейроны.

Примеры

свернуть все

В этом примере показано, как использовать прямую каскадом нейронную сеть, чтобы решить простую задачу.

Загрузите обучающие данные.

[x,t] = simplefit_dataset;

1 94 матричный x содержит входные значения и 1 94 матричный t содержит связанные целевые выходные значения.

Создайте прямую каскадом сеть с одним скрытым слоем размера 10.

net = cascadeforwardnet(10);

Обучите сеть net использование обучающих данных.

net = train(net,x,t);

Просмотрите обучивший сеть.

view(net)

Оцените цели с помощью обучившего сеть.

y = net(x);

Оцените эффективность обучившего сеть. Функция эффективности по умолчанию является среднеквадратической ошибкой.

perf = perform(net,y,t)
perf = 1.9372e-05

Входные параметры

свернуть все

Размер скрытых слоев в сети в виде вектора-строки. Длина вектора определяет количество скрытых слоев в сети.

Пример: Например, можно задать сеть с 3 скрытыми слоями, где первый размер скрытого слоя равняется 10, второе равняется 8, и третье равняется 5 можно следующим образом: [10,8,5]

Размеры ввода и вывода обнуляются. Программное обеспечение настраивает размеры их во время обучения согласно обучающим данным.

Типы данных: single | double

Учебное имя функции в виде одного из следующих.

Учебная функцияАлгоритм
'trainlm'

Levenberg-Marquardt

'trainbr'

Байесова регуляризация

'trainbfg'

Квазиньютон BFGS

'trainrp'

Устойчивая обратная связь

'trainscg'

Масштабированный метод сопряженных градиентов

'traincgb'

Метод сопряженных градиентов с Перезапусками Powell/Beale

'traincgf'

Метод сопряженных градиентов Флетчера-Пауэлла

'traincgp'

Метод сопряженных градиентов Полака-Рибиера

'trainoss'

Один секанс шага

'traingdx'

Переменный градиентный спуск скорости обучения

'traingdm'

Градиентный спуск с импульсом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки можно следующим образом: 'traingdx'

Для получения дополнительной информации об учебных функциях смотрите, Обучают и Применяют Многоуровневые Мелкие Нейронные сети и Выбирают Multilayer Neural Network Training Function.

Типы данных: char

Выходные аргументы

свернуть все

Прямая каскадом нейронная сеть, возвращенная как network объект.

Представленный в R2010b
Для просмотра документации необходимо авторизоваться на сайте