Нейронная сеть для глубокого обучения для пользовательских учебных циклов
dlnetwork
объект включает поддержку пользовательских учебных циклов с помощью автоматического дифференцирования.
Совет
Для большинства задач глубокого обучения можно использовать предварительно обученную сеть и адаптировать ее к собственным данным. Для примера, показывающего, как использовать передачу обучения, чтобы переобучить сверточную нейронную сеть, чтобы классифицировать новый набор изображений, смотрите, Обучают Нейронную сеть для глубокого обучения Классифицировать Новые Изображения. В качестве альтернативы можно создать и обучить нейронные сети с нуля с помощью layerGraph
объекты с trainNetwork
и trainingOptions
функции.
Если trainingOptions
функция не обеспечивает опции обучения, в которых вы нуждаетесь для своей задачи, затем можно создать пользовательский учебный цикл с помощью автоматического дифференцирования. Чтобы узнать больше, смотрите, Задают Нейронную сеть для глубокого обучения для Пользовательских Учебных Циклов.
преобразует слоя сети, заданные в dlnet
= dlnetwork(layers
)layers
к инициализированному dlnetwork
объект, представляющий глубокую нейронную сеть для использования с пользовательскими учебными циклами. layers
может быть LayerGraph
возразите или Layer
массив. layers
должен содержать входной слой.
Инициализированный dlnetwork
объект готов к обучению. Настраиваемые параметры и значения состояния dlnet
инициализируются для обучения с начальными значениями на основе входного размера, заданного сетевым входным слоем.
создает инициализированный dlnet
= dlnetwork(layers
,dlX1,...,dlXn
)dlnetwork
объект с помощью примера вводит dlX1,...,dlXn
. Настраиваемые параметры и значения состояния dlnet
инициализируются начальными значениями на основе входного размера и формата, заданного входными параметрами в качестве примера. Используйте этот синтаксис, чтобы создать инициализированный dlnetwork
с входными параметрами, которые не соединяются с входным слоем.
задает, возвратить ли инициализированный или деинициализировал dlnet
= dlnetwork(layers
,'Initialize',tf
)dlnetwork
. Используйте этот синтаксис, чтобы создать неинициализированную сеть.
Неинициализированная сеть сбросила, пустые значения для настраиваемых параметров и параметров состояния и не готова к обучению. Необходимо инициализировать неинициализированный dlnetwork
прежде чем можно будет использовать его. Создайте неинициализированную сеть, когда это необходимо, чтобы задержать инициализацию к более поздней точке. Можно использовать неинициализированный dlnetwork
объекты создать комплексные сети с помощью промежуточных базовых блоков, которые вы затем соединяете вместе, например, с помощью рабочих процессов Состава Нейронной сети для глубокого обучения. Можно инициализировать неинициализированный dlnetwork
использование initialize
функция.
также устанавливает dlnet
= dlnetwork(___,'OutputNames',names)OutputNames
свойство с помощью любого из предыдущих синтаксисов. OutputNames
свойство задает слои, которые возвращают сетевые выходные параметры. Чтобы определить выходные имена, сеть должна быть инициализирована.
layers
— Слоя сетиLayerGraph
возразите | Layer
массивСлоя сети в виде LayerGraph
возразите или как Layer
массив.
Если layers
Layer
массив, затем dlnetwork
функционируйте соединяет слои последовательно.
Слоя сети не должны содержать выходные слои. При обучении сети вычислите потерю отдельно.
Для списка слоев, поддержанных dlnetwork
, смотрите Поддерживаемые Слои.
dlX1,...,dlXn
— Входные параметры сети Exampledlarray
Сеть Example вводит в виде отформатированного dlarray
объекты. Программное обеспечение распространяет входные параметры в качестве примера через сеть, чтобы определить соответствующие размеры и форматы настраиваемых параметров и параметры состояния dlnetwork
.
Входными параметрами в качестве примера должен быть отформатированный dlarray
объекты. Когда layers
Layer
массив, обеспечьте входные параметры в качестве примера в том же порядке, что слои, которые требуют входных параметров, появляются в Layer
массив. Когда layers
LayerGraph
возразите, обеспечьте входные параметры в качестве примера в том же порядке как слои, которые требуют, чтобы входные параметры появились в Layers
свойство LayerGraph
.
Входные параметры в качестве примера не поддерживаются когда tf
является ложным.
tf
— Отметьте, чтобы возвратить инициализированный dlnetwork
true
или 1
(значение по умолчанию) | false
или 0
Отметьте, чтобы возвратить инициализированный dlnetwork
В виде числового или логического 1
TRUE
) или 0
ложь
).
Если tf
true
или 1
, настраиваемые параметры и параметры состояния dlnet
инициализируются начальными значениями для обучения, согласно сетевому входному слою или обеспеченным входным параметрам в качестве примера.
Если tf
является ложным, learnable и параметры состояния не инициализируются. Прежде чем вы будете использовать неинициализированную сеть, необходимо сначала инициализировать ее с помощью initialize
функция. Входные параметры в качестве примера не поддерживаются когда tf
является ложным.
Layers
— Слоя сетиLayer
массивЭто свойство доступно только для чтения.
Слоя сети в виде Layer
массив.
Connections
— Связи слояЭто свойство доступно только для чтения.
Связи слоя в виде таблицы с двумя столбцами.
Каждая строка таблицы представляет связь в графике слоев. Первый столбец, Source
, задает источник каждой связи. Второй столбец, Destination
, задает место назначения каждой связи. Источники связи и места назначения являются или именами слоя или имеют форму 'layerName/IOName'
, где 'IOName'
имя ввода или вывода слоя.
Типы данных: table
Learnables
— Сетевые настраиваемые параметрыСетевые настраиваемые параметры в виде таблицы с тремя столбцами:
Layer
– Имя слоя в виде строкового скаляра.
Parameter
– Название параметра в виде строкового скаляра.
Value
– Значение параметра в виде dlarray
объект.
Сетевые настраиваемые параметры содержат функции, изученные сетью. Например, веса свертки и полносвязных слоев.
Типы данных: table
State
— Сетевое состояниеСетевое состояние в виде таблицы.
Сетевое состояние является таблицей с тремя столбцами:
Layer
– Имя слоя в виде строкового скаляра.
Parameter
– Имя параметра состояния в виде строкового скаляра.
Value
– Значение параметра состояния в виде dlarray
объект.
Состояния слоя содержат информацию, вычисленную во время операции слоя, которая будет сохранена для использования в последующих прямых передачах слоя. Например, ячейка утверждают и скрытое состояние слоев LSTM или рабочая статистика в слоях нормализации партии.
Для текущих слоев, таких как слои LSTM, с HasStateInputs
набор свойств к 1
(TRUE), таблица состояния не содержит записи для состояний того слоя.
Во время обучения или вывода, можно обновить сетевое состояние с помощью выхода forward
и predict
функции.
Типы данных: table
InputNames
— Сетевые входные имена слояЭто свойство доступно только для чтения.
Сетевой входной слой называет в виде массива ячеек из символьных векторов.
Типы данных: cell
OutputNames
— Имена слоев, которые возвращают сетевые выходные параметрыИмена слоев, которые возвращают сетевые выходные параметры в виде массива ячеек из символьных векторов или массива строк.
Чтобы определить выходные имена, сеть должна быть инициализирована.
Если вы не задаете выходные имена, то программное обеспечение устанавливает OutputNames
свойство к слоям с разъединенными выходными параметрами. Если слой имеет несколько выходных параметров, то разъединенные выходные параметры заданы как 'layerName/outputName'
.
predict
и forward
функции, по умолчанию, возвращают вывод данных слоями, данными OutputNames
свойство.
Типы данных: cell
| string
Initialized
— Отметьте для инициализированной сети
(FALSE) | 1
TRUEЭто свойство доступно только для чтения.
Отметьте для инициализированной сети в виде 0
(FALSE) или 1
TRUE.
Если Initialized
0
(FALSE), сеть не инициализируется. Необходимо инициализировать сеть, прежде чем можно будет использовать ее. Инициализируйте сеть с помощью initialize
функция.
Если Initialized
1
(TRUE), сеть инициализируется и может использоваться для обучения и вывода. Если вы изменяете значения настраиваемых параметров — например, во время обучения — значение Initialized
остается 1
TRUE.
Типы данных: логический
predict | Вычислите нейронную сеть для глубокого обучения выход для вывода |
forward | Вычислите нейронную сеть для глубокого обучения выход для обучения |
initialize | Инициализируйте настраиваемые параметры и параметры состояния dlnetwork |
layerGraph | График слоев сети для глубокого обучения |
setL2Factor | Установитесь коэффициент регуляризации L2 настраиваемого параметра слоя |
setLearnRateFactor | Установите изучают фактор уровня настраиваемого параметра слоя |
getLearnRateFactor | Доберитесь изучают фактор уровня настраиваемого параметра слоя |
getL2Factor | Получите фактор регуляризации L2 настраиваемого параметра слоя |
dlnetwork
ОбъектЭтот пример использует:
Чтобы реализовать пользовательский учебный цикл для вашей сети, сначала преобразуйте его в dlnetwork
объект. Не включайте выходные слои в dlnetwork
объект. Вместо этого необходимо задать функцию потерь в пользовательском учебном цикле.
Загрузите предварительно обученную модель GoogLeNet с помощью googlenet
функция. Эта функция требует Модели Deep Learning Toolbox™ для пакета Сетевой поддержки GoogLeNet. Если этот пакет поддержки не установлен, то функция обеспечивает ссылку на загрузку.
net = googlenet;
Преобразуйте сеть в график слоев и удалите слои, используемые для классификации с помощью removeLayers
.
lgraph = layerGraph(net); lgraph = removeLayers(lgraph,["prob" "output"]);
Преобразуйте сеть в dlnetwork
объект.
dlnet = dlnetwork(lgraph)
dlnet = dlnetwork with properties: Layers: [142x1 nnet.cnn.layer.Layer] Connections: [168x2 table] Learnables: [116x3 table] State: [0x3 table] InputNames: {'data'} OutputNames: {'loss3-classifier'} Initialized: 1
dlnetwork
с несвязанными входными параметрамиИспользуйте входные параметры в качестве примера, чтобы создать мультивход dlnetwork
это готово к обучению. Программное обеспечение распространяет входные параметры в качестве примера через сеть, чтобы определить соответствующие размеры и форматы настраиваемых параметров и параметры состояния dlnetwork
.
Определить сетевую архитектуру. Создайте сеть с двумя ветвями. Сеть берет два входных параметров с одним входом на ветвь. Соедините ветви с помощью слоя сложения.
numFilters = 24; layersBranch1 = [ convolution2dLayer(3,6*numFilters,'Padding','same','Stride',2,'Name','conv1Branch1') groupNormalizationLayer('all-channels') reluLayer convolution2dLayer(3,numFilters,'Padding','same') groupNormalizationLayer('channel-wise') additionLayer(2,'Name','add') reluLayer fullyConnectedLayer(10) softmaxLayer]; layersBranch2 = [ convolution2dLayer(1,numFilters,'Name','convBranch2') groupNormalizationLayer('all-channels','Name','gnBranch2')]; lgraph = layerGraph(layersBranch1); lgraph = addLayers(lgraph,layersBranch2); lgraph = connectLayers(lgraph,'gnBranch2','add/in2');
Создайте формат входных параметров сети примера одного размера как типичные сетевые входные параметры. Для обоих входных параметров используйте пакетный размер 32. Используйте вход размера 64 64 с тремя каналами для входа к слою convBranch1
. Используйте вход размера 64 64 с 18 каналами для входа для входа к слою convBranch2
.
dlX1 = dlarray(rand([64 64 3 32]),"SSCB"); dlX2 = dlarray(rand([32 32 18 32]),"SSCB");
Создайте dlnetwork. Обеспечьте входные параметры в том же порядке, что несвязанные слои появляются в Layers
свойство lgraph.
dlnet = dlnetwork(lgraph,dlX1,dlX2);
Проверяйте, что сеть инициализируется и готова к обучению.
dlnet.Initialized
ans = logical
1
В этом примере показано, как обучить сеть, которая классифицирует рукописные цифры с пользовательским расписанием скорости обучения.
Если trainingOptions
не предоставляет возможности, в которых вы нуждаетесь (например, пользовательское расписание скорости обучения), затем можно задать собственный учебный цикл с помощью автоматического дифференцирования.
Этот пример обучает сеть, чтобы классифицировать рукописные цифры с основанным на времени расписанием скорости обучения затухания: для каждой итерации решатель использует скорость обучения, данную , где t является номером итерации, начальная скорость обучения, и k является затуханием.
Загрузите обучающие данные
Загрузите данные о цифрах как datastore изображений с помощью imageDatastore
функционируйте и задайте папку, содержащую данные изображения.
dataFolder = fullfile(toolboxdir('nnet'),'nndemos','nndatasets','DigitDataset'); imds = imageDatastore(dataFolder, ... 'IncludeSubfolders',true, .... 'LabelSource','foldernames');
Разделите данные в наборы обучения и валидации. Отложите 10% данных для валидации с помощью splitEachLabel
функция.
[imdsTrain,imdsValidation] = splitEachLabel(imds,0.9,'randomize');
Сеть, используемая в этом примере, требует входных изображений размера 28 28 1. Чтобы автоматически изменить размер учебных изображений, используйте увеличенный datastore изображений. Задайте дополнительные операции увеличения, чтобы выполнить на учебных изображениях: случайным образом переведите изображения до 5 пикселей в горизонтальных и вертикальных осях. Увеличение данных помогает препятствовать тому, чтобы сеть сверхсоответствовала и запомнила точные детали учебных изображений.
inputSize = [28 28 1]; pixelRange = [-5 5]; imageAugmenter = imageDataAugmenter( ... 'RandXTranslation',pixelRange, ... 'RandYTranslation',pixelRange); augimdsTrain = augmentedImageDatastore(inputSize(1:2),imdsTrain,'DataAugmentation',imageAugmenter);
Чтобы автоматически изменить размер изображений валидации, не выполняя дальнейшее увеличение данных, используйте увеличенный datastore изображений, не задавая дополнительных операций предварительной обработки.
augimdsValidation = augmentedImageDatastore(inputSize(1:2),imdsValidation);
Определите количество классов в обучающих данных.
classes = categories(imdsTrain.Labels); numClasses = numel(classes);
Сеть Define
Задайте сеть для классификации изображений.
layers = [ imageInputLayer(inputSize,'Normalization','none','Name','input') convolution2dLayer(5,20,'Name','conv1') batchNormalizationLayer('Name','bn1') reluLayer('Name','relu1') convolution2dLayer(3,20,'Padding','same','Name','conv2') batchNormalizationLayer('Name','bn2') reluLayer('Name','relu2') convolution2dLayer(3,20,'Padding','same','Name','conv3') batchNormalizationLayer('Name','bn3') reluLayer('Name','relu3') fullyConnectedLayer(numClasses,'Name','fc') softmaxLayer('Name','softmax')]; lgraph = layerGraph(layers);
Создайте dlnetwork
объект от графика слоев.
dlnet = dlnetwork(lgraph)
dlnet = dlnetwork with properties: Layers: [12×1 nnet.cnn.layer.Layer] Connections: [11×2 table] Learnables: [14×3 table] State: [6×3 table] InputNames: {'input'} OutputNames: {'softmax'}
Функция градиентов модели Define
Создайте функциональный modelGradients
, перечисленный в конце примера, который берет dlnetwork
объект, мини-пакет входных данных с соответствующими метками и возвращают градиенты потери относительно настраиваемых параметров в сети и соответствующей потери.
Задайте опции обучения
Обучайтесь в течение десяти эпох с мини-пакетным размером 128.
numEpochs = 10; miniBatchSize = 128;
Задайте опции для оптимизации SGDM. Укажите, что начальная буква изучает уровень 0,01 с затуханием 0,01, и импульс 0.9.
initialLearnRate = 0.01; decay = 0.01; momentum = 0.9;
Обучите модель
Создайте minibatchqueue
возразите, что процессы и управляют мини-пакетами изображений во время обучения. Для каждого мини-пакета:
Используйте пользовательский мини-пакет, предварительно обрабатывающий функциональный preprocessMiniBatch
(заданный в конце этого примера), чтобы преобразовать метки в одногорячие закодированные переменные.
Формат данные изображения с размерностью маркирует 'SSCB'
(пространственный, пространственный, канал, пакет). По умолчанию, minibatchqueue
объект преобразует данные в dlarray
объекты с базовым типом single
. Не добавляйте формат в метки класса.
Обучайтесь на графическом процессоре, если вы доступны. По умолчанию, minibatchqueue
объект преобразует каждый выход в gpuArray
если графический процессор доступен. Используя графический процессор требует Parallel Computing Toolbox™ и поддерживаемого устройства графического процессора. Для получения информации о поддерживаемых устройствах смотрите Поддержку графического процессора Релизом (Parallel Computing Toolbox).
mbq = minibatchqueue(augimdsTrain,... 'MiniBatchSize',miniBatchSize,... 'MiniBatchFcn',@preprocessMiniBatch,... 'MiniBatchFormat',{'SSCB',''});
Инициализируйте график процесса обучения.
figure lineLossTrain = animatedline('Color',[0.85 0.325 0.098]); ylim([0 inf]) xlabel("Iteration") ylabel("Loss") grid on
Инициализируйте скоростной параметр для решателя SGDM.
velocity = [];
Обучите сеть с помощью пользовательского учебного цикла. В течение каждой эпохи переставьте данные и цикл по мини-пакетам данных. Для каждого мини-пакета:
Оцените градиенты модели, состояние и потерю с помощью dlfeval
и modelGradients
функции и обновление сетевое состояние.
Определите скорость обучения для основанного на времени расписания скорости обучения затухания.
Обновите сетевые параметры с помощью sgdmupdate
функция.
Отобразите прогресс обучения.
iteration = 0; start = tic; % Loop over epochs. for epoch = 1:numEpochs % Shuffle data. shuffle(mbq); % Loop over mini-batches. while hasdata(mbq) iteration = iteration + 1; % Read mini-batch of data. [dlX, dlY] = next(mbq); % Evaluate the model gradients, state, and loss using dlfeval and the % modelGradients function and update the network state. [gradients,state,loss] = dlfeval(@modelGradients,dlnet,dlX,dlY); dlnet.State = state; % Determine learning rate for time-based decay learning rate schedule. learnRate = initialLearnRate/(1 + decay*iteration); % Update the network parameters using the SGDM optimizer. [dlnet,velocity] = sgdmupdate(dlnet,gradients,velocity,learnRate,momentum); % Display the training progress. D = duration(0,0,toc(start),'Format','hh:mm:ss'); addpoints(lineLossTrain,iteration,loss) title("Epoch: " + epoch + ", Elapsed: " + string(D)) drawnow end end
Тестовая модель
Протестируйте точность классификации модели путем сравнения предсказаний на наборе валидации с истинными метками.
После обучения создание предсказаний на новых данных не требует меток. Создайте minibatchqueue
объект, содержащий только предикторы тестовых данных:
Чтобы проигнорировать метки для тестирования, определите номер выходных параметров мини-пакетной очереди к 1.
Задайте тот же мини-пакетный размер, используемый для обучения.
Предварительно обработайте предикторы с помощью preprocessMiniBatchPredictors
функция, перечисленная в конце примера.
Для одного выхода datastore задайте мини-пакетный формат 'SSCB'
(пространственный, пространственный, канал, пакет).
numOutputs = 1; mbqTest = minibatchqueue(augimdsValidation,numOutputs, ... 'MiniBatchSize',miniBatchSize, ... 'MiniBatchFcn',@preprocessMiniBatchPredictors, ... 'MiniBatchFormat','SSCB');
Цикл по мини-пакетам и классифицирует изображения с помощью modelPredictions
функция, перечисленная в конце примера.
predictions = modelPredictions(dlnet,mbqTest,classes);
Оцените точность классификации.
YTest = imdsValidation.Labels; accuracy = mean(predictions == YTest)
accuracy = 0.9530
Функция градиентов модели
modelGradients
функционируйте берет dlnetwork
объект dlnet
, мини-пакет входных данных dlX
с соответствием маркирует Y
и возвращает градиенты потери относительно настраиваемых параметров в dlnet
, сетевое состояние и потеря. Чтобы вычислить градиенты автоматически, используйте dlgradient
функция.
function [gradients,state,loss] = modelGradients(dlnet,dlX,Y) [dlYPred,state] = forward(dlnet,dlX); loss = crossentropy(dlYPred,Y); gradients = dlgradient(loss,dlnet.Learnables); loss = double(gather(extractdata(loss))); end
Функция предсказаний модели
modelPredictions
функционируйте берет dlnetwork
объект dlnet
, minibatchqueue
из входных данных mbq
, и сетевые классы, и вычисляют предсказания модели путем итерации по всем данным в minibatchqueue
объект. Функция использует onehotdecode
функционируйте, чтобы найти предсказанный класс с самым высоким счетом.
function predictions = modelPredictions(dlnet,mbq,classes) predictions = []; while hasdata(mbq) dlXTest = next(mbq); dlYPred = predict(dlnet,dlXTest); YPred = onehotdecode(dlYPred,classes,1)'; predictions = [predictions; YPred]; end end
Мини-функция предварительной обработки пакета
preprocessMiniBatch
функция предварительно обрабатывает мини-пакет предикторов и меток с помощью следующих шагов:
Предварительно обработайте изображения с помощью preprocessMiniBatchPredictors
функция.
Извлеките данные о метке из массива входящей ячейки и конкатенируйте в категориальный массив вдоль второго измерения.
Одногорячий кодируют категориальные метки в числовые массивы. Кодирование в первую размерность производит закодированный массив, который совпадает с формой сетевого выхода.
function [X,Y] = preprocessMiniBatch(XCell,YCell) % Preprocess predictors. X = preprocessMiniBatchPredictors(XCell); % Extract label data from cell and concatenate. Y = cat(2,YCell{1:end}); % One-hot encode labels. Y = onehotencode(Y,1); end
Мини-пакетные предикторы, предварительно обрабатывающие функцию
preprocessMiniBatchPredictors
функция предварительно обрабатывает мини-пакет предикторов путем извлечения данных изображения из входного массива ячеек, и конкатенируйте в числовой массив. Для полутонового входа, конкатенирующего по четвертой размерности, добавляет третью размерность в каждое изображение, чтобы использовать в качестве одноэлементной размерности канала.
function X = preprocessMiniBatchPredictors(XCell) % Concatenate. X = cat(4,XCell{1:end}); end
dlnetwork
ОбъектЗагрузите предварительно обученную сеть.
net = squeezenet;
Преобразуйте сеть в график слоев, удалите выходной слой и преобразуйте его в dlnetwork
объект.
lgraph = layerGraph(net);
lgraph = removeLayers(lgraph,'ClassificationLayer_predictions');
dlnet = dlnetwork(lgraph);
Learnables
свойство dlnetwork
объект является таблицей, которая содержит настраиваемые параметры сети. Таблица включает параметры вложенных слоев в отдельных строках. Просмотрите первые несколько строк learnables таблицы.
learnables = dlnet.Learnables; head(learnables)
ans=8×3 table
Layer Parameter Value
__________________ _________ ___________________
"conv1" "Weights" {3x3x3x64 dlarray}
"conv1" "Bias" {1x1x64 dlarray}
"fire2-squeeze1x1" "Weights" {1x1x64x16 dlarray}
"fire2-squeeze1x1" "Bias" {1x1x16 dlarray}
"fire2-expand1x1" "Weights" {1x1x16x64 dlarray}
"fire2-expand1x1" "Bias" {1x1x64 dlarray}
"fire2-expand3x3" "Weights" {3x3x16x64 dlarray}
"fire2-expand3x3" "Bias" {1x1x64 dlarray}
Заморозить настраиваемые параметры сети, цикла по настраиваемым параметрам и установить изучить уровень на 0 использований setLearnRateFactor
функция.
factor = 0; numLearnables = size(learnables,1); for i = 1:numLearnables layerName = learnables.Layer(i); parameterName = learnables.Parameter(i); dlnet = setLearnRateFactor(dlnet,layerName,parameterName,factor); end
Чтобы использовать обновленный изучают факторы уровня, когда обучение, необходимо передать объект dlnetwork функции обновления в пользовательском учебном цикле. Например, используйте команду
[dlnet,velocity] = sgdmupdate(dlnet,gradients,velocity);
dlnetwork
Создайте неинициализированный dlnetwork
объект без входного слоя. Создание неинициализированного dlnetwork
полезно, когда вы еще не знаете размера и формата сетевых входных параметров, например, когда dlnetwork
вкладывается в пользовательском слое.
Задайте слоя сети. Эта сеть имеет один вход, который не соединяется с входным слоем.
layers = [ convolution2dLayer(5,20) batchNormalizationLayer reluLayer fullyConnectedLayer(10) softmaxLayer];
Создайте неинициализированный dlnetwork
. Установите Initialize
опция к false
.
dlnet = dlnetwork(layers,'Initialize',false);
Проверяйте, что сеть не инициализируется.
dlnet.Initialized
ans = logical
0
Настраиваемые параметры и параметры состояния этой сети не инициализируются для обучения. Чтобы инициализировать сеть, используйте initialize
функция.
Если вы хотите использовать dlnet
непосредственно в пользовательском учебном цикле, затем можно инициализировать его при помощи initialize
функционируйте и обеспечение входа в качестве примера.
Если вы хотите использовать dlnet
в пользовательском слое затем можно использовать в своих интересах автоматическую инициализацию. Если вы используете пользовательский слой в dlnetwork
, затем dlnet
инициализируется когда родительский dlnetwork
создается (или когда родительская сеть инициализируется, если она создается как неинициализированный dlnetwork
). Если вы используете пользовательский слой в сети, которая обучена с помощью trainNetwork
функция, затем dlnet
автоматически инициализируется в учебное время. Для получения дополнительной информации смотрите Состав Нейронной сети для глубокого обучения.
dlnetwork
функционируйте поддерживает слои описанные ниже и пользовательские слои без прямых функций, возвращающих непустое значение памяти.
Слой | Описание |
---|---|
Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных. | |
Входной слой 3-D изображения вводит 3-D изображения или объемы к сети и применяет нормализацию данных. | |
Последовательность ввела входные данные о последовательности слоя к сети. | |
Функция ввела входные данные о функции слоя к сети, и применяет нормализацию данных. Используйте этот слой, когда у вас будет набор данных числовых скаляров, представляющих функции (данные без пространственных или измерений времени). |
Слой | Описание |
---|---|
1D сверточный слой применяет скользящие сверточные фильтры к 1D входу. | |
2D сверточный слой применяет скользящие сверточные фильтры к 2D входу. | |
3-D сверточный слой применяет скользящие кубовидные фильтры свертки к 3-D входу. | |
2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для отделимого мудрого каналом (также известный мудрыми глубиной отделимый) свертка. | |
Транспонированный 2D слой свертки сверхдискретизировал карты функции. | |
Транспонированный 3-D слой свертки сверхдискретизировал 3D карты функции. | |
Полносвязный слой умножает вход на матрицу веса и затем добавляет вектор смещения. |
Слой | Описание |
---|---|
Последовательность ввела входные данные о последовательности слоя к сети. | |
Слой LSTM изучает долгосрочные зависимости между временными шагами в данных о последовательности и временных рядах. | |
Двунаправленный слой LSTM (BiLSTM) изучает двунаправленные долгосрочные зависимости между временными шагами данных о последовательности или временных рядов. Эти зависимости могут быть полезными, когда это необходимо, сеть, чтобы извлечь уроки из полных временных рядов на каждом временном шаге. | |
Слой ГРУ изучает зависимости между временными шагами в данных о последовательности и временных рядах. | |
Сглаживать слой сворачивает пространственные размерности входа в размерность канала. |
Для lstmLayer
, bilstmLayer
, и gruLayer
объекты, dlnetwork
уровни поддержки объектов со значениями по умолчанию для StateActivationFunction
и GateActivationFunction
свойства.
Слой | Описание |
---|---|
Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется. | |
Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр. | |
Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения. | |
Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах. | |
Слой активации свиста применяет функцию свиста на входные параметры слоя. | |
Гиперболическая касательная (tanh) слой активации применяет функцию tanh на входные параметры слоя. | |
softmax слой применяет функцию softmax к входу. | |
Сигмоидальный слой применяет сигмоидальную функцию к входу, таким образом, что выход ограничен в интервале (0,1). | |
Функциональный слой применяет заданную функцию к входу слоя. |
Слой | Описание |
---|---|
Слой нормализации партии. нормирует мини-пакет данных через все наблюдения для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации партии. между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Слой нормализации группы нормирует мини-пакет данных через сгруппированные подмножества каналов для каждого наблюдения независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации группы между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Слой нормализации слоя нормирует мини-пакет данных через все каналы для каждого наблюдения независимо. Чтобы ускорить обучение текущих и многоуровневых perceptron нейронных сетей и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации слоя после learnable слоев, таких как LSTM и полносвязные слоя. | |
Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию. | |
Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью. | |
2D слой обрезки применяет 2D обрезку к входу. | |
| Слой STFT вычисляет кратковременное преобразование Фурье входа. |
Слой | Описание |
---|---|
1D средний слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя среднее значение каждой области. | |
2D средний слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения, затем вычисляя средние значения каждой области. | |
3-D средний слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения, затем вычисляя средние значения каждой области. | |
1D глобальный средний слой объединения выполняет субдискретизацию путем вывода среднего значения времени или пространственных размерностей входа. | |
2D глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа. | |
3-D глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения высоты, ширины и размерностей глубины входа. | |
1D макс. слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя максимум каждой области. | |
2D макс. слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения, затем вычисляя максимум каждой области. | |
3-D макс. слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения, затем вычисляя максимум каждой области. | |
1D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вывода максимума времени или пространственных размерностей входа. | |
2D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума размерностей высоты и ширины входа. | |
3-D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума высоты, ширины и размерностей глубины входа. | |
2D макс. слой необъединения не объединяет выход 2D макс. слоя объединения. |
Слой | Описание |
---|---|
Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети. | |
Слой умножения умножает входы от нескольких поэлементных слоев нейронной сети. | |
Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала). | |
Слой конкатенации берет входные параметры и конкатенирует их в заданном измерении. Входные параметры должны иметь тот же размер во всех размерностях кроме размерности конкатенации. |
dlnetwork
значениями состояния является dlarray
объектыState
из dlnetwork
объект является таблицей, содержащей имена параметра состояния и значения для каждого слоя в сети.
Начиная в R2021a, значениями состояния является dlarray
объекты. Это изменение включает лучшую поддержку при использовании AcceleratedFunction
объекты. Чтобы ускорить функции глубокого обучения, которые имеют часто изменяющиеся входные значения, например, вход, содержащий сетевое состояние, часто изменяющиеся значения должны быть заданы как dlarray
объекты.
В предыдущих версиях значения состояния являются числовыми массивами.
В большинстве случаев вы не должны будете обновлять свой код. Если у вас есть код, который требует, чтобы значения состояния были числовыми массивами, то воспроизвести предыдущее поведение, извлечь данные из значений состояния вручную с помощью extractdata
функция с dlupdate
функция.
state = dlupdate(@extractdata,dlnet.State);
Указания и ограничения по применению:
Генерация кода поддерживает только InputNames
и OutputNames
свойства.
Генерация кода не поддерживает dlnetwork
объекты без входных слоев. Initialized
свойство dlnetwork
объект должен быть установлен в истину.
Можно сгенерировать код для dlnetwork
это имеет векторные входные параметры последовательности. Для ARM® Вычислите, dlnetwork
может иметь последовательность и входные слои пробела. Для Intel® MKL-DNN, входные слои должны быть всеми входными слоями последовательности. Поддержка генерации кода включает:
dlarray
содержа векторные последовательности, которые имеют 'CT'
или 'CBT'
форматы данных.
dlnetwork
объект, который имеет несколько входных параметров. Для сетей RNN несколько вводят, не поддерживается.
Генерация кода поддерживает только predict
объектная функция. dlarray
введите к predict
методом должен быть single
тип данных.
Генерация кода не поддерживает dlnetwork
для плоскости цель C/C++.
Генерация кода поддерживает MIMO dlnetworks
.
Создать dlnetwork
объект для генерации кода, смотрите Предварительно обученные сети Загрузки для Генерации кода (MATLAB Coder).
Указания и ограничения по применению:
Генерация кода поддерживает только InputNames
и OutputNames
свойства.
Генерация кода не поддерживает dlnetwork
объекты без входных слоев. Initialized
свойство dlnetwork
объект должен быть установлен в истину.
Можно сгенерировать код для dlnetwork
это имеет векторные входные параметры последовательности. Поддержка генерации кода включает:
dlarray
содержа векторные последовательности, которые имеют 'CT'
или 'CBT'
форматы данных.
dlnetwork
объект, который имеет несколько входных параметров. Для сетей RNN несколько вводят, не поддерживается.
Генерация кода поддерживает только predict
объектная функция. dlarray
введите к predict
методом должен быть single
тип данных.
Генерация кода поддерживает dlnetwork
для cuDNN и целей TensorRT. Генерация кода не поддерживает dlnetwork
для ARM Mali и плоскости цели C/C++.
При предназначении для TensorRT с INT8
точность, последний слой (слои) сети должен быть a softmaxLayer
слой.
Генерация кода поддерживает MIMO dlnetworks
.
Создать dlnetwork
объект для генерации кода, смотрите Предварительно обученные сети Загрузки для Генерации кода (GPU Coder).
dlarray
| dlgradient
| dlfeval
| forward
| predict
| layerGraph
| initialize
У вас есть модифицированная версия этого примера. Вы хотите открыть этот пример со своими редактированиями?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.