exponenta event banner

DAGNetwork

Сеть направленных ациклических графов (DAG) для глубокого обучения

Описание

Сеть DAG - нейронная сеть для глубокого обучения со слоями, расположенными как направленный ациклический граф. Сеть DAG может иметь более сложную архитектуру, в которой уровни имеют входы от нескольких уровней и выходы от нескольких уровней.

Создание

Существует несколько способов создания DAGNetwork объект:

Примечание

Сведения о других предварительно обученных сетях см. в разделе Предварительно обученные глубокие нейронные сети.

Свойства

развернуть все

Сетевые уровни, указанные как Layer массив.

Соединения слоев, указанные как таблица с двумя столбцами.

Каждая строка таблицы представляет соединение в графе слоев. Первый столбец, Source, указывает источник каждого соединения. Второй столбец, Destination, указывает место назначения каждого подключения. Источники и адресаты соединений являются либо именами слоев, либо имеют форму 'layerName/IOName', где 'IOName' - имя входного или выходного слоя.

Типы данных: table

Имена сетевых входных уровней, заданные как массив ячеек символьных векторов.

Типы данных: cell

Имена сетевых выходных уровней, заданные как массив ячеек символьных векторов.

Типы данных: cell

Функции объекта

activationsВычислять активации сетевого уровня глубокого обучения
classifyКлассифицировать данные с помощью обученной нейронной сети глубокого обучения
predictПрогнозирование ответов с использованием обученной нейронной сети глубокого обучения
plotГрафик уровня нейронной сети

Примеры

свернуть все

Создание простой направленной сети ациклических графов (DAG) для глубокого обучения. Обучите сеть классификации изображений цифр. Простая сеть в этом примере состоит из:

  • Главная ветвь с последовательно соединенными слоями.

  • Контекстное соединение, содержащее один сверточный слой 1 на 1. Соединения с помощью ярлыков позволяют легче передавать градиенты параметров с выходного уровня на более ранние уровни сети.

Создайте главную ветвь сети в виде массива слоев. Слой сложения суммирует множество входов по элементам. Укажите количество вводов для суммирования слоя сложения. Все слои должны иметь имена, а все имена должны быть уникальными.

layers = [
    imageInputLayer([28 28 1],'Name','input')
    
    convolution2dLayer(5,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2,'Name','conv_2')
    batchNormalizationLayer('Name','BN_2')
    reluLayer('Name','relu_2')
    convolution2dLayer(3,32,'Padding','same','Name','conv_3')
    batchNormalizationLayer('Name','BN_3')
    reluLayer('Name','relu_3')
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2,'Name','avpool')
    fullyConnectedLayer(10,'Name','fc')
    softmaxLayer('Name','softmax')
    classificationLayer('Name','classOutput')];

Создайте график слоев из массива слоев. layerGraph соединяет все слои в layers последовательно. Постройте график слоев.

lgraph = layerGraph(layers);
figure
plot(lgraph)

Создайте сверточный слой 1 на 1 и добавьте его к графу слоев. Укажите количество сверточных фильтров и шаг, чтобы размер активации соответствовал размеру активации 'relu_3' слой. Эта компоновка позволяет дополнительному уровню добавлять выходные сигналы 'skipConv' и 'relu_3' слои. Чтобы проверить, что слой находится на графике, постройте график слоев.

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

Создайте контекстное соединение из 'relu_1' к слою 'add' слой. Поскольку при создании слоя сложения в качестве количества входов указано два, слой имеет два входа с именем 'in1' и 'in2'. 'relu_3' слой уже подключен к 'in1' вход. Подключите 'relu_1' к слою 'skipConv' слой и 'skipConv' к слою 'in2' вход 'add' слой. Уровень сложения теперь суммирует выходы 'relu_3' и 'skipConv' слои. Чтобы проверить правильность соединения слоев, постройте график слоев.

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

Загрузите обучающие и валидационные данные, состоящие из изображений цифр в градациях серого 28 на 28.

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

Укажите параметры обучения и обучите сеть. trainNetwork проверяет сеть, используя данные проверки каждые ValidationFrequency итерации.

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

Отображение свойств обученной сети. Сеть представляет собой DAGNetwork объект.

net
net = 
  DAGNetwork with properties:

         Layers: [16×1 nnet.cnn.layer.Layer]
    Connections: [16×2 table]
     InputNames: {'input'}
    OutputNames: {'classOutput'}

Классифицируйте изображения проверки и рассчитайте точность. Сеть очень точна.

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9930

Расширенные возможности

..
Представлен в R2017b