patternnet

Сгенерируйте сеть распознавания шаблонов

Описание

пример

net = patternnet(hiddenSizes,trainFcn,performFcn) возвращает нейронную сеть распознавания шаблонов со скрытым размером слоя hiddenSizes, обучающая функция, заданная trainFcn, и функцию эффективности, заданную как performFcn.

Сети распознавания шаблонов являются сетями прямого распространения, которые могут быть обучены для классификации входных параметров в соответствии с целевыми классами. Целевые данные для сетей распознавания шаблонов должны состоять из векторов со всеми нулевыми значениями, кроме элемента 1 в i, где i - класс, который они должны представлять.

Примеры

свернуть все

Этот пример показывает, как создать сеть распознавания шаблонов для классификации цветов радужки.

Загрузите обучающие данные.

[x,t] = iris_dataset;

Создайте сеть шаблона с одним скрытым слоем размера 10.

net = patternnet(10);

Обучите сетевую net использование обучающих данных.

net = train(net,x,t);

Просмотрите обученную сеть.

view(net)

Оцените цели с помощью обученной сети.

y = net(x);

Оцените эффективность обученной сети. Функция эффективности по умолчанию является средней квадратичной невязкой.

perf = perform(net,t,y)
perf = 0.0302
classes = vec2ind(y);

Входные параметры

свернуть все

Размер скрытых слоев в сети, заданный как вектор-строка. Длина вектора определяет количество скрытых слоев в сети.

Пример: Например, можно задать сеть с 3 скрытыми слоями, где первый скрытый размер слоя равен 10, второй равен 8, а третий равен 5 следующим образом: [10,8,5]

Вход и выходного параметров равен нулю. Программа настраивает их размеры во время обучения в соответствии с обучающими данными.

Типы данных: single | double

Имя функции обучения, заданное как одно из следующих.

Функция обученияАлгоритм
'trainlm'

Левенберг-Марквардт

'trainbr'

Байесовская регуляризация

'trainbfg'

BFGS Квази-Ньютон

'trainrp'

Упругое обратное распространение

'trainscg'

Масштабированный сопряженный градиент

'traincgb'

Сопряженный градиент с перезапусками Powell/Beale

'traincgf'

Сопряженный градиент Флетчера-Пауэлла

'traincgp'

Сопряженный градиент Полак-Рибьер

'trainoss'

Одношаговый секант

'traingdx'

Градиентный спуск переменной скорости обучения

'traingdm'

Градиентный спуск с моментом

'traingd'

Градиентный спуск

Пример: Например, можно задать переменный алгоритм градиентного спуска скорости обучения как алгоритм настройки следующим образом: 'traingdx'

Для получения дополнительной информации о функциях обучения смотрите Train и Применение Многослойных Неглубоких Нейронных Сетей и Выберите Многослойную Функцию Обучения Нейронной Сети.

Типы данных: char

Эффективность. Значение по умолчанию 'crossentropy'.

Этот аргумент определяет функцию, используемую для измерения эффективности сети. Функция эффективности используется для вычисления эффективности сети во время обучения.

Для получения списка функций в командном окне MATLAB введите help nnperformance.

Выходные аргументы

свернуть все

Распознавание шаблона нейронной сети, возвращается как network объект.

Введенный в R2010b
Для просмотра документации необходимо авторизоваться на сайте