В этом примере показано, как обучить сеть, чтобы передать стиль изображения к второму изображению. Это основано на архитектуре, заданной в [1].
Этот пример похож на Нейронную Передачу Стиля Используя Глубокое обучение, но это работает быстрее, если вы обучили сеть на S стиля изображений. Это вызвано тем, что чтобы получить стилизованное изображение Y только необходимо сделать, прямая передача входа отображает X к сети.
Найдите высокоуровневую схему алгоритма настройки ниже. Это использует три изображения, чтобы вычислить потерю: входное изображение X, преобразованное изображение Y и стиль отображает S.
Обратите внимание на то, что функция потерь использует предварительно обученную сеть VGG-16, чтобы извлечь функции из изображений. Можно найти его реализацию и математическое определение в разделе Style Transfer Loss этого примера.
Загрузите и извлеките COCO 2014, обучают изображения и заголовки под эгидой http://cocodataset.org/#download путем нажатия на "2014 Train images". Сохраните в папке данные, заданные imageFolder
. Извлеките изображения в imageFolder
. COCO 2014 был собран Кокосовым Консорциумом.
Создайте директории, чтобы сохранить набор данных COCO.
imageFolder = fullfile(tempdir,"coco"); if ~exist(imageFolder,'dir') mkdir(imageFolder); end
Создайте datastore изображений, содержащий изображения COCO.
imds = imageDatastore(imageFolder,'IncludeSubfolders',true);
Обучение может занять много времени, чтобы запуститься. Если вы хотите уменьшить учебное время за счет точности получившейся сети, то выберите подмножество datastore изображений установкой fraction
к меньшему значению.
fraction = 1; numObservations = numel(imds.Files); imds = subset(imds,1:floor(numObservations*fraction));
Чтобы изменить размер изображений и преобразовать их всех в RGB, создайте увеличенный datastore изображений.
augimds = augmentedImageDatastore([256 256],imds,'ColorPreprocessing',"gray2rgb");
Считайте изображение стиля.
styleImage = imread('starryNight.jpg');
styleImage = imresize(styleImage,[256 256]);
Отобразите выбранное изображение стиля.
figure
imshow(styleImage)
title("Style Image")
Задайте сеть трансформатора изображений. Это - сеть от изображения к изображению. Сеть состоит из 3 частей:
Первая часть сети берет в качестве входа изображение RGB размера [256x256x3] и прореживает его к карте функции размера [64x64x128].
Вторая часть сети состоит из пяти идентичных остаточных блоков, заданных в функции поддержки residualBlock.
Третья и итоговая часть сети сверхдискретизировала карту функции к первоначальному размеру изображения и возвращает преобразованное изображение. Эта последняя часть использует upsampleLayer
, который является пользовательским слоем, присоединенным к этому примеру как вспомогательный файл.
layers = [ % First part. imageInputLayer([256 256 3], 'Name', 'input', 'Normalization','none') convolution2dLayer([9 9], 32, 'Padding','same','Name', 'conv1') groupNormalizationLayer('channel-wise','Name','norm1') reluLayer('Name', 'relu1') convolution2dLayer([3 3], 64, 'Stride', 2,'Padding','same','Name', 'conv2') groupNormalizationLayer('channel-wise' ,'Name','norm2') reluLayer('Name', 'relu2') convolution2dLayer([3 3], 128, 'Stride', 2, 'Padding','same','Name', 'conv3') groupNormalizationLayer('channel-wise' ,'Name','norm3') reluLayer('Name', 'relu3') % Second part. residualBlock("1") residualBlock("2") residualBlock("3") residualBlock("4") residualBlock("5") % Third part. upsampleLayer('up1') convolution2dLayer([3 3], 64, 'Stride', 1, 'Padding','same','Name', 'upconv1') groupNormalizationLayer('channel-wise' ,'Name','norm6') reluLayer('Name', 'relu5') upsampleLayer('up2') convolution2dLayer([3 3], 32, 'Stride', 1, 'Padding','same','Name', 'upconv2') groupNormalizationLayer('channel-wise' ,'Name','norm7') reluLayer('Name', 'relu6') convolution2dLayer(9,3,'Padding','same','Name','conv_out')]; lgraph = layerGraph(layers);
Добавьте недостающие связи в остаточных блоках.
lgraph = connectLayers(lgraph,"relu3","add1/in2"); lgraph = connectLayers(lgraph,"add1","add2/in2"); lgraph = connectLayers(lgraph,"add2","add3/in2"); lgraph = connectLayers(lgraph,"add3","add4/in2"); lgraph = connectLayers(lgraph,"add4","add5/in2");
Визуализируйте сеть трансформатора изображений в графике.
figure
plot(lgraph)
title("Transform Network")
Создайте dlnetwork
объект от графика слоев.
dlnetTransform = dlnetwork(lgraph);
Этот пример использует предварительно обученную глубокую нейронную сеть VGG-16, чтобы извлечь функции содержимого и изображений стиля на различных слоях. Эти многоуровневые функции используются для расчета соответствующее содержимое и разрабатывают потери.
Чтобы получить предварительно обученную сеть VGG-16, используйте vgg16
функция. Если у вас нет необходимых пакетов поддержки установленными, то программное обеспечение обеспечивает ссылку на загрузку.
netLoss = vgg16;
Чтобы извлечь функцию, необходимую, чтобы вычислить потерю, вам нужны первые 24 слоя только. Извлеките и преобразуйте в график слоев.
lossLayers = netLoss.Layers(1:24); lgraph = layerGraph(lossLayers);
Преобразуйте в dlnetwork
.
dlnetLoss = dlnetwork(lgraph);
Создайте styleTransferLoss
функция, определяемая в разделе Style Transfer Loss этого примера.
Функциональный styleTransferLoss
берет в качестве входа сеть dlnetLoss
потерь, мини-пакет входных преобразованных изображений
dlX,
мини-пакет преобразованных изображений dlY
, массив, содержащий матрицы Грамма стиля, отображает dlSGram
, вес сопоставил с потерей содержимого contentWeight
и вес сопоставил с потерей стиля styleWeight
. Функция возвращает общую сумму убытков loss
и отдельные компоненты: потеря содержимого lossContent
и потеря стиля lossStyle.
styleTransferLoss
функционируйте использует функцию поддержки createGramMatrix
в расчете потери стиля.
createGramMatrix
функционируйте берет в качестве входа функции, извлеченные сетью потерь, и возвращает стилистическое представление для каждого изображения в мини-пакете. Можно найти реализацию и математическое определение матрицы Грамма в разделе Gram Matrix.
Создайте функциональный modelGradients
, перечисленный в разделе Model Gradients Function примера. Эта функция берет в качестве входа сеть dlnetLoss
потерь, сеть
dlnetTransform
трансформатора изображений, мини-пакет входа отображает
dlX
, массив, содержащий матрицы Грамма стиля, отображает dlSGram
, вес сопоставил с потерей содержимого contentWeight
и вес сопоставил с потерей стиля styleWeight
. Функция возвращает gradients
из потери относительно настраиваемых параметров трансформатора изображений, состояния сети трансформатора изображений, преобразованные изображения dlY,
общая сумма убытков loss
, потеря сопоставила с содержимым lossContent
и потеря сопоставила со стилем lossStyle.
Обучайтесь с размером мини-пакета, равным 4, в течение 2 эпох как в [1].
numEpochs = 2; miniBatchSize = 4;
Установите размер чтения увеличенного datastore изображений к мини-пакетному размеру.
augimds.MiniBatchSize = miniBatchSize;
Задайте опции для оптимизации ADAM. Задайте изучить уровень 0,001 с фактором затухания градиента 0,01 и фактором затухания градиента в квадрате 0,999.
learnRate = 0.001; gradientDecayFactor = 0.9; squaredGradientDecayFactor = 0.999;
Обучайтесь на графическом процессоре, если вы доступны. Используя графический процессор требует Parallel Computing Toolbox™ и поддерживаемого устройства графического процессора. Для получения информации о поддерживаемых устройствах смотрите Поддержку графического процессора Релизом (Parallel Computing Toolbox).
executionEnvironment = "auto";
Задайте вес, данный потере стиля и один данный к потере содержимого в вычислении общей суммы убытков.
Обратите внимание на то, что, для того, чтобы найти хороший баланс между содержимым и потерей стиля, вы можете должны быть экспериментировать с различными комбинациями весов.
weightContent = 1e-4; weightStyle = 3e-8;
Выберите частоту графика процесса обучения. Это задает, сколько итерации там между каждым обновлением графика.
plotFrequency = 10;
Для того, чтобы смочь вычислить потерю во время обучения, вычислить матрицы Грамма для изображения стиля.
Преобразуйте изображение стиля в dlarray
.
dlS = dlarray(single(styleImage),'SSC');
Для того, чтобы вычислить матрицу Грамма, накормите изображением стиля сеть VGG-16 и извлеките активации на четырех различных слоях.
[dlSActivations1,dlSActivations2,dlSActivations3,dlSActivations4] = forward(dlnetLoss,dlS, ... 'Outputs',["relu1_2" "relu2_2" "relu3_3" "relu4_3"]);
Вычислите матрицу Грамма для каждого набора активаций с помощью функции поддержки createGramMatrix
.
dlSGram{1} = createGramMatrix(dlSActivations1); dlSGram{2} = createGramMatrix(dlSActivations2); dlSGram{3} = createGramMatrix(dlSActivations3); dlSGram{4} = createGramMatrix(dlSActivations4);
Учебные графики состоят из двух фигур:
Фигура, показывающая график потерь во время обучения
Фигура, содержащая вход и выходное изображение сети трансформатора изображений
Инициализируйте учебные графики. Можно проверять детали инициализации в функции поддержки initializeFigures.
Эта функция возвращается: ось ax1
где вы строите потерю, ось ax2
где вы строите изображения валидации, анимированная линия lineLossContent
который содержит потерю содержимого, анимированная линия lineLossStyle
который содержит потерю стиля и анимированную линию lineLossTotal
который содержит общую сумму убытков.
[ax1,ax2,lineLossContent,lineLossStyle,lineLossTotal]=initializeStyleTransferPlots();
Инициализируйте средний градиент и средние гиперпараметры градиента в квадрате для оптимизатора ADAM.
averageGrad = []; averageSqGrad = [];
Вычислите общее количество учебных итераций.
numIterations = floor(augimds.NumObservations*numEpochs/miniBatchSize);
Инициализируйте номер итерации и таймер перед обучением.
iteration = 0; start = tic;
Обучите модель. Это могло занять много времени, чтобы запуститься.
% Loop over epochs. for i = 1:numEpochs % Reset and shuffle datastore. reset(augimds); augimds = shuffle(augimds); % Loop over mini-batches. while hasdata(augimds) iteration = iteration + 1; % Read mini-batch of data. data = read(augimds); % Ignore last partial mini-batch of epoch. if size(data,1) < miniBatchSize continue end % Extract the images from data store into a cell array. images = data{:,1}; % Concatenate the images along the 4th dimension. X = cat(4,images{:}); X = single(X); % Convert mini-batch of data to dlarray and specify the dimension labels % 'SSCB' (spatial, spatial, channel, batch). dlX = dlarray(X, 'SSCB'); % If training on a GPU, then convert data to gpuArray. if (executionEnvironment == "auto" && canUseGPU) || executionEnvironment == "gpu" dlX = gpuArray(dlX); end % Evaluate the model gradients and the network state using % dlfeval and the modelGradients function listed at the end of the % example. [gradients,state,dlY,loss,lossContent,lossStyle] = dlfeval(@modelGradients, ... dlnetLoss,dlnetTransform,dlX,dlSGram,weightContent,weightStyle); dlnetTransform.State = state; % Update the network parameters. [dlnetTransform,averageGrad,averageSqGrad] = ... adamupdate(dlnetTransform,gradients,averageGrad,averageSqGrad,iteration,... learnRate, gradientDecayFactor, squaredGradientDecayFactor); % Every plotFequency iterations, plot the training progress. if mod(iteration,plotFrequency) == 0 addpoints(lineLossTotal,iteration,double(gather(extractdata(loss)))) addpoints(lineLossContent,iteration,double(gather(extractdata(lossContent)))) addpoints(lineLossStyle,iteration,double(gather(extractdata(lossStyle)))) % Use the first image of the mini-batch as a validation image. dlV = dlX(:,:,:,1); % Use the transformed validation image computed previously. dlVY = dlY(:,:,:,1); % To use the function imshow, convert to uint8. validationImage = uint8(gather(extractdata(dlV))); transformedValidationImage = uint8(gather(extractdata(dlVY))); % Plot the input image and the output image and increase size imshow(imtile({validationImage,transformedValidationImage}),'Parent',ax2); end % Display time elapsed since start of training and training completion percentage. D = duration(0,0,toc(start),'Format','hh:mm:ss'); completionPercentage = round(iteration/numIterations*100,2); title(ax1,"Epoch: " + i + ", Iteration: " + iteration +" of "+ numIterations + "(" + completionPercentage + "%)" +", Elapsed: " + string(D)) drawnow end end
Если обучение закончилось, можно использовать трансформатор изображений на любом изображении по вашему выбору.
Загрузите изображение, которое требуется преобразовать.
imFilename = 'peppers.png';
im = imread(imFilename);
Измените размер входного изображения к входным размерностям трансформатора изображений.
im = imresize(im,[256,256]);
Преобразуйте его в dlarray.
dlX = dlarray(single(im),'SSCB');
Чтобы использовать графический процессор преобразуют в gpuArray
если вы доступны.
if canUseGPU dlX = gpuArray(dlX); end
Чтобы применить стиль к изображению, передайте передачу это трансформатору изображений с помощью функционального predict.
dlY = predict(dlnetTransform,dlX);
Перемасштабируйте изображение в область значений [0 255]. Во-первых, используйте функциональный tanh
перемасштабировать dlY
к области значений [-1 1]. Затем сдвиг и шкала выход, чтобы перемасштабировать в [0 255] область значений.
Y = 255*(tanh(dlY)+1)/2;
Подготовьте Y
для графического вывода. Используйте функциональный extraxtdata
извлекать данные из dlarray.
Использование функция собирается, чтобы передать Y от графического процессора до локальной рабочей области.
Y = uint8(gather(extractdata(Y)));
Покажите входное изображение (слева) рядом со стилизованным изображением (справа).
figure m = imtile({im,Y}); imshow(m)
Функциональный modelGradients
берет в качестве входа сеть dlnetLoss
потерь, сеть
dlnetTransform
трансформатора изображений, мини-пакет входа отображает
dlX
, массив, содержащий матрицы Грамма стиля, отображает dlSGram
, вес сопоставил с потерей содержимого contentWeight
и вес сопоставил с потерей стиля styleWeight
. Это возвращает gradients
из потери относительно настраиваемых параметров трансформатора изображений, состояния сети трансформатора изображений, преобразованные изображения dlY
, общая сумма убытков loss
, потеря сопоставила с содержимым lossContent
и потеря сопоставила со стилем lossStyle.
function [gradients,state,dlY,loss,lossContent,lossStyle] = ... modelGradients(dlnetLoss,dlnetTransform,dlX,dlSGram,contentWeight,styleWeight) [dlY,state] = forward(dlnetTransform,dlX); dlY = 255*(tanh(dlY)+1)/2; [loss,lossContent,lossStyle] = styleTransferLoss(dlnetLoss,dlY,dlX,dlSGram,contentWeight,styleWeight); gradients = dlgradient(loss,dlnetTransform.Learnables); end
Функциональный styleTransferLoss
берет в качестве входа сеть dlnetLoss
потерь, мини-пакет входа отображает
dlX,
мини-пакет преобразованных изображений dlY
, массив, содержащий матрицы Грамма стиля, отображает dlSGram
, веса сопоставили с содержимым и стилем contentWeight
и styleWeight,
соответственно. Это возвращает общую сумму убытков loss
и отдельные компоненты: потеря содержимого lossContent
и потеря стиля lossStyle.
Потеря содержимого является мерой сколько различия в пространственной структуре существует между входным изображением X
и выходные изображения Y
.
С другой стороны, потеря стиля говорит вам сколько различия в стилистическом внешнем виде существует между изображением стиля S
и выходное изображение Y
.
График ниже объясняет алгоритм что styleTransferLoss
реализации, чтобы вычислить общую сумму убытков.
Во-первых, функция передает входные изображения X
, преобразованные изображения Y
и стиль отображает S
к предварительно обученной сети VGG-16. Эта предварительно обученная сеть извлекает несколько функций из этих изображений. Алгоритм затем вычисляет, потеря содержимого при помощи пространственных функций входа отображают X и выходного изображения Y. Кроме того, это вычисляет потерю стиля при помощи стилистических функций выходного изображения Y, и стиля отображают S. Наконец, это получает общую сумму убытков путем добавления потерь стиля и содержимого.
Для каждого изображения в мини-пакете функция потерь содержимого сравнивает функции оригинального изображения и преобразованного изображения, выведенного слоем relu_3_3
. В частности, это вычисляет среднеквадратичную погрешность между активациями и возвращает среднюю потерю для мини-пакета:
где содержит входные изображения, содержит преобразованные изображения, мини-пакетный размер, и представляет активации, извлеченные на слое relu_3_3.
Вычислить потерю стиля, для каждого одного изображения в мини-пакете:
Извлеките активации на слоях relu1_2
, relu2_2
, relu3_3
и relu4_3
.
Для каждой из этих четырех активаций вычислите матрицу Грамма .
Вычислите разность в квадрате между соответствующими матрицами Грамма.
Сложите эти четыре выходных параметров для каждого слоя от предыдущего шага.
Чтобы получить потерю стиля для целого мини-пакета, вычислите среднее значение потери стиля для каждого изображения в мини-пакете:
где индекс слоя, и Матрица Грамма.
function [loss,lossContent,lossStyle] = styleTransferLoss(dlnetLoss,dlY,dlX, ... dlSGram,weightContent,weightStyle) % Extract activations. dlYActivations = cell(1,4); [dlYActivations{1},dlYActivations{2},dlYActivations{3},dlYActivations{4}] = ... forward(dlnetLoss,dlY,'Outputs',["relu1_2" "relu2_2" "relu3_3" "relu4_3"]); dlXActivations = forward(dlnetLoss,dlX,'Outputs','relu3_3'); % Calculate the mean square error between activations. lossContent = mean((dlYActivations{3} - dlXActivations).^2,'all'); % Add up the losses for all the four activations. lossStyle = 0; for j = 1:4 G = createGramMatrix(dlYActivations{j}); lossStyle = lossStyle + sum((G - dlSGram{j}).^2,'all'); end % Average the loss over the mini-batch. miniBatchSize = size(dlX,4); lossStyle = lossStyle/miniBatchSize; % Apply weights. lossContent = weightContent * lossContent; lossStyle = weightStyle * lossStyle; % Calculate the total loss. loss = lossContent + lossStyle; end
residualBlock
функция возвращает массив шести слоев. Это состоит из слоев свертки, слоев нормализации экземпляра, слоя ReLu и слоя сложения. Обратите внимание на то, что groupNormalizationLayer('channel-wise')
просто слой нормализации экземпляра.
function layers = residualBlock(name) layers = [ convolution2dLayer([3 3], 128, 'Stride', 1,'Padding','same','Name', "convRes"+name+"_1") groupNormalizationLayer('channel-wise','Name',"normRes"+name+"_1") reluLayer('Name', "reluRes"+name+"_1") convolution2dLayer([3 3], 128, 'Stride', 1,'Padding','same', 'Name', "convRes"+name+"_2") groupNormalizationLayer('channel-wise','Name',"normRes"+name+"_2") additionLayer(2,'Name',"add"+name)]; end
Функциональный createGramMatrix
берет в качестве входа активации единственного слоя и возвращает стилистическое представление для каждого изображения в mini-batch.
Вход является картой функции размера [H, W, C, N], где H является высотой, W является шириной, C является количеством каналов, и N является мини-пакетным размером. Функциональные выходные параметры массив G
из размера [C, C, N]. Каждая подрешетка G(:,:,k)
матричное соответствие Грамма отобразите в мини-пакете. Каждая запись из Грамма матрица представляет корреляцию между каналами и , потому что каждая запись в канале умножает запись в соответствующем положении в канале :
где активации для отобразите в мини-пакете.
Матрица Грамма содержит информацию, о которой функции активируются вместе, но не имеет никакой информации о том, где функции происходят в изображении. Это вызвано тем, что суммирование по высоте и ширине теряет информацию о пространственной структуре. Функция потерь использует эту матрицу в качестве стилистического представления изображения.
function G = createGramMatrix(activations) [h,w,numChannels] = size(activations,1:3); features = reshape(activations,h*w,numChannels,[]); featuresT = permute(features,[2 1 3]); G = dlmtimes(featuresT,features) / (h*w*numChannels); end
Джонсон, Джастин, Александр Алахи и Ли Фэй-Фэй. "Перцепционные потери для передачи стиля в реальном времени и суперразрешения". Европейская конференция по компьютерному зрению. Спрингер, Хан, 2016.
adamupdate
| dlarray
| dlfeval
| dlgradient
| dlnetwork
| forward
| predict