activations

Вычислите активации слоя нейронной сети для глубокого обучения

Описание

Можно извлечь функции с помощью обученной нейронной сети для глубокого обучения или на центральном процессоре или на графическом процессоре. Используя графический процессор требует Parallel Computing Toolbox™, и CUDA® включил NVIDIA®, графический процессор с вычисляет возможность 3.0 или выше. Задайте требования к аппаратным средствам с помощью ExecutionEnvironment аргумент пары "имя-значение".

features = activations(net,imds,layer) возвращает сетевые активации для определенного слоя с помощью обучившего сеть net и данные изображения в datastore изображений imds.

features = activations(net,ds,layer) возвращает сетевые активации с помощью данных в datastore ds. Для сетей с несколькими входными параметрами используйте этот синтаксис с объединенным или преобразованным объектом datastore.

features = activations(net,X,layer) возвращает сетевые активации с помощью данных изображения в числовом массиве X.

features = activations(net,sequences,layer) возвращает сетевые активации для сети LSTM или BiLSTM, где sequences содержит предикторы временных рядов или последовательность.

features = activations(net,tbl,layer) возвращает сетевые активации с помощью данных в таблице изображений tbl.

пример

features = activations(___,Name,Value) возвращает сетевые активации с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение". Например, 'OutputAs','rows' задает выходной формат активации как 'rows'. Задайте аргументы пары "имя-значение" после всех других входных параметров.

Примеры

свернуть все

В этом примере показано, как извлечь изученные функции изображений из предварительно обученной сверточной нейронной сети и использовать те функции, чтобы обучить классификатор изображений. Извлечение признаков является самым легким и самым быстрым путем использование представительная степень предварительно обученных глубоких сетей. Например, можно обучить машину опорных векторов (SVM) с помощью fitcecoc (Statistics and Machine Learning Toolbox™) на извлеченных функциях. Поскольку извлечение признаков только требует одного прохода через данные, это - хорошая начальная точка, если у вас нет графического процессора, чтобы ускорить сетевое обучение с.

Загрузка данных

Разархивируйте и загрузите демонстрационные изображения как datastore изображений. imageDatastore автоматически помечает изображения на основе имен папок и хранит данные как ImageDatastore объект. Datastore изображений позволяет вам сохранить большие данные изображения, включая данные, которые не умещаются в памяти. Разделите данные в 70%-е обучение и 30% тестовых данных.

unzip('MerchData.zip');

imds = imageDatastore('MerchData', ...
    'IncludeSubfolders',true, ...
    'LabelSource','foldernames');

[imdsTrain,imdsTest] = splitEachLabel(imds,0.7,'randomized');

Существует теперь 55 учебных изображений и 20 изображений валидации в этом очень небольшом наборе данных. Отобразите некоторые демонстрационные изображения.

numImagesTrain = numel(imdsTrain.Labels);
idx = randperm(numImagesTrain,16);

for i = 1:16
    I{i} = readimage(imdsTrain,idx(i));
end

figure
imshow(imtile(I))

Загрузите предварительно обученную сеть

Загрузите предварительно обученную сеть AlexNet. Если Модель Deep Learning Toolbox для пакета Сетевой поддержки AlexNet не установлена, то программное обеспечение обеспечивает ссылку на загрузку. AlexNet обучен больше чем на миллионе изображений и может классифицировать изображения в 1 000 категорий объектов. Например, клавиатура, мышь, карандаш и многие животные. В результате модель изучила богатые представления функции для широкого спектра изображений.

net = alexnet;

Отобразите сетевую архитектуру. Сеть имеет пять сверточных слоев и три полносвязных слоя.

net.Layers
ans = 
  25x1 Layer array with layers:

     1   'data'     Image Input                   227x227x3 images with 'zerocenter' normalization
     2   'conv1'    Convolution                   96 11x11x3 convolutions with stride [4  4] and padding [0  0  0  0]
     3   'relu1'    ReLU                          ReLU
     4   'norm1'    Cross Channel Normalization   cross channel normalization with 5 channels per element
     5   'pool1'    Max Pooling                   3x3 max pooling with stride [2  2] and padding [0  0  0  0]
     6   'conv2'    Grouped Convolution           2 groups of 128 5x5x48 convolutions with stride [1  1] and padding [2  2  2  2]
     7   'relu2'    ReLU                          ReLU
     8   'norm2'    Cross Channel Normalization   cross channel normalization with 5 channels per element
     9   'pool2'    Max Pooling                   3x3 max pooling with stride [2  2] and padding [0  0  0  0]
    10   'conv3'    Convolution                   384 3x3x256 convolutions with stride [1  1] and padding [1  1  1  1]
    11   'relu3'    ReLU                          ReLU
    12   'conv4'    Grouped Convolution           2 groups of 192 3x3x192 convolutions with stride [1  1] and padding [1  1  1  1]
    13   'relu4'    ReLU                          ReLU
    14   'conv5'    Grouped Convolution           2 groups of 128 3x3x192 convolutions with stride [1  1] and padding [1  1  1  1]
    15   'relu5'    ReLU                          ReLU
    16   'pool5'    Max Pooling                   3x3 max pooling with stride [2  2] and padding [0  0  0  0]
    17   'fc6'      Fully Connected               4096 fully connected layer
    18   'relu6'    ReLU                          ReLU
    19   'drop6'    Dropout                       50% dropout
    20   'fc7'      Fully Connected               4096 fully connected layer
    21   'relu7'    ReLU                          ReLU
    22   'drop7'    Dropout                       50% dropout
    23   'fc8'      Fully Connected               1000 fully connected layer
    24   'prob'     Softmax                       softmax
    25   'output'   Classification Output         crossentropyex with 'tench' and 999 other classes

Первый слой, изображение ввело слой, требует входных изображений размера 227 227 3, где 3 количество цветовых каналов.

inputSize = net.Layers(1).InputSize
inputSize = 1×3

   227   227     3

Извлеките функции изображений

Сеть создает иерархическое представление входных изображений. Более глубокие слои содержат высокоуровневые функции, созданное использование функций низшего уровня более ранних слоев. Чтобы получить представления функции обучения и тестовых изображений, используйте activations на полносвязном слое 'fc7'. Чтобы получить представление низшего уровня изображений, используйте более ранний слой в сети.

Сеть требует входных изображений размера 227 227 3, но изображения в хранилищах данных изображений имеют различные размеры. Чтобы автоматически изменить размер обучения и тестовых изображений, прежде чем они будут введены к сети, создайте увеличенные хранилища данных изображений, задайте желаемый размер изображения и используйте эти хранилища данных в качестве входных параметров к activations.

augimdsTrain = augmentedImageDatastore(inputSize(1:2),imdsTrain);
augimdsTest = augmentedImageDatastore(inputSize(1:2),imdsTest);

layer = 'fc7';
featuresTrain = activations(net,augimdsTrain,layer,'OutputAs','rows');
featuresTest = activations(net,augimdsTest,layer,'OutputAs','rows');

Извлеките метки класса из обучения и тестовых данных.

YTrain = imdsTrain.Labels;
YTest = imdsTest.Labels;

Подходящий классификатор изображений

Используйте функции, извлеченные из учебных изображений как переменные предикторы, и соответствуйте машине опорных векторов (SVM) мультикласса с помощью fitcecoc (Statistics and Machine Learning Toolbox).

mdl = fitcecoc(featuresTrain,YTrain);

Классифицируйте тестовые изображения

Классифицируйте тестовые изображения с помощью обученной модели SVM и функций, извлеченных из тестовых изображений.

YPred = predict(mdl,featuresTest);

Отобразите четыре демонстрационных тестовых изображения с их предсказанными метками.

idx = [1 5 10 15];
figure
for i = 1:numel(idx)
    subplot(2,2,i)
    I = readimage(imdsTest,idx(i));
    label = YPred(idx(i));
    
    imshow(I)
    title(label)
end

Вычислите точность классификации на набор тестов. Точность является частью меток, которые сеть предсказывает правильно.

accuracy = mean(YPred == YTest)
accuracy = 1

Этот SVM имеет высокую точность. Если точность высоко достаточно не использует извлечение признаков, то попробуйте передачу, учащуюся вместо этого.

Входные параметры

свернуть все

Обучивший сеть, заданный как SeriesNetwork или DAGNetwork объект. Можно получить обучивший сеть путем импорта предварительно обученной сети (например, при помощи googlenet функция) или по образованию ваша собственная сеть с помощью trainNetwork.

Отобразите datastore, заданный как ImageDatastore объект.

ImageDatastore позволяет пакетное чтение JPG или упреждающую выборку использования файлов изображений PNG. Если вы используете пользовательскую функцию в чтении изображений, то ImageDatastore не выбирает с упреждением.

Совет

Используйте augmentedImageDatastore для эффективной предварительной обработки изображений для глубокого обучения включая изменение размеров изображений.

Не используйте readFcn опция imageDatastore когда эта опция обычно значительно медленнее.

Datastore входных данных.

Для сетей с одним входом, ds может возвратиться также:

  • одно изображение

  • массив ячеек изображений

  • таблица, где первый столбец содержит изображения

Для сетей с несколькими входными параметрами, ds должен быть объединенный или преобразованный datastore, который возвращает массив ячеек с numInputs столбцы, содержащие входные данные, где numInputs количество сетевых входных параметров. iэлемент th массива ячеек соответствует входу net.InputNames(i).

Для получения дополнительной информации смотрите Хранилища данных для Глубокого обучения.

Данные изображения, заданные как числовой массив. Размер массива зависит от типа входа изображений:

Входной параметрОписание
2D изображенияh-by-w-by-c-by-N числовой массив, где h, w и c являются высотой, шириной, и количеством каналов изображений, соответственно, и N, является количеством изображений.
3-D изображенияh-by-w-by-d-by-c-by-N числовой массив, где h, w, d и c являются высотой, шириной, глубиной, и количеством каналов изображений, соответственно, и N, является количеством изображений.

Если массив содержит NaNs, затем они распространены через сеть.

Для входа изображений, если 'OutputAs' опцией является 'channels', затем изображения во входных данных X может быть больше, чем входной размер входного слоя изображений сети. Для других выходных форматов, изображений в X должен иметь тот же размер как входной размер входного слоя изображений сети.

Последовательность или данные временных рядов, заданные как N-by-1 массив ячеек числовых массивов, где N является количеством наблюдений, числовой массив, представляющий одну последовательность или datastore.

Для входа массива ячеек или числового массива размерности числовых массивов, содержащих последовательности, зависят от типа данных.

Входной параметрОписание
Векторные последовательностиc-by-s матрицы, где c является количеством функций последовательностей и s, является длиной последовательности.
2D последовательности изображенийh-by-w-by-c-by-s массивы, где h, w и c соответствуют высоте, ширине, и количеству каналов изображений, соответственно, и s, является длиной последовательности.
3-D последовательности изображенийh-by-w-by-d-by-c-by-s, где h, w, d и c соответствуют высоте, ширине, глубине, и количеству каналов 3-D изображений, соответственно, и s, является длиной последовательности.

Для входа datastore datastore должен возвратить данные как массив ячеек последовательностей или таблицы, первый столбец которой содержит последовательности. Размерности данных о последовательности должны соответствовать приведенной выше таблице.

Таблица изображений, содержащих входные данные в первом столбце. Каждая строка в таблице соответствует наблюдению. Таблица содержит пути к абсолютному или файлу прямого доступа к изображению, заданному как вектор символов, или отображает заданный как числовой массив.

Типы данных: table

Слой, чтобы извлечь функции из, заданный как числовой индекс или вектор символов.

Вычислить активации SeriesNetwork возразите, задайте слой с помощью его числового индекса, или как вектора символов, соответствующего имени слоя.

Вычислить активации DAGNetwork возразите, задайте слой как вектор символов, соответствующий имени слоя. Если слой имеет несколько выходных параметров, задайте слой и выведите как имя слоя, сопровождаемое символом “/”, сопровождаемый под названием слой выход. Таким образом, layer имеет форму 'layerName/outputName'.

Пример 3

Пример: 'conv1'

Пример: 'mpool/out'

Аргументы в виде пар имя-значение

Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Пример: activations(net,X,layer,'OutputAs','rows')

Формат выходных активаций, заданных как разделенная запятой пара, состоящая из 'OutputAs' и любой 'channels''Строки' , или 'columns'. Для описаний различных выходных форматов смотрите features.

Для входа изображений, если 'OutputAs' опцией является 'channels', затем изображения во входных данных X может быть больше, чем входной размер входного слоя изображений сети. Для других выходных форматов, изображений в X должен иметь тот же размер как входной размер входного слоя изображений сети.

Пример: 'OutputAs','rows'

Размер мини-пакетов, чтобы использовать в прогнозе, заданном как положительное целое число. Большие мини-пакетные размеры требуют большей памяти, но могут привести к более быстрым прогнозам.

Пример: 'MiniBatchSize',256

Опция, чтобы заполнить, обрежьте или разделите входные последовательности, заданные как одно из следующего:

  • 'longest' — Заполните последовательности в каждом мини-пакете, чтобы иметь ту же длину как самая длинная последовательность. Эта опция не отбрасывает данных, хотя дополнение может ввести шум сети.

  • 'shortest' — Усеченные последовательности в каждом мини-пакете, чтобы иметь ту же длину как самая короткая последовательность. Эта опция гарантирует, что никакое дополнение не добавляется, за счет отбрасывания данных.

  • Положительное целое число — Для каждого мини-пакета, заполните последовательности к самому близкому кратному заданная длина, которая больше самой долгой длины последовательности в мини-пакете, и затем разделяет последовательности в меньшие последовательности заданной длины. Если разделение происходит, то программное обеспечение создает дополнительные мини-пакеты. Используйте эту опцию, если полные последовательности не умещаются в памяти. В качестве альтернативы попытайтесь сократить количество последовательностей на мини-пакет путем установки 'MiniBatchSize' опция к нижнему значению.

Чтобы узнать больше об эффекте дополнения, усечение и разделение входных последовательностей, видят, что Последовательность Дополняет, Усечение, и Разделяет.

Пример: 'SequenceLength','shortest'

Значение, которым можно заполнить входные последовательности, заданные как скаляр. Опция допустима только когда SequenceLength 'longest' или положительное целое число. Не заполняйте последовательности NaN, потому что выполнение так может распространить ошибки в сети.

Пример: 'SequencePaddingValue',-1

Направление дополнения или усечения, заданного как одно из следующего:

  • 'right' — Заполните или обрежьте последовательности справа. Последовательности запускают одновременно шаг, и программное обеспечение обрезает или добавляет дополнение в конец последовательностей.

  • 'left' — Заполните или обрежьте последовательности слева. Программное обеспечение обрезает или добавляет дополнение в запуск последовательностей так, чтобы конец последовательностей одновременно продвинулся.

Поскольку слои LSTM обрабатывают данные о последовательности один временной шаг за один раз, когда слой OutputMode свойством является 'last', любое дополнение в итоговых временных шагах может негативно влиять на слой выход. Чтобы заполнить или обрезать данные о последовательности слева, установите 'SequencePaddingDirection' опция к 'left'.

Для сетей от последовательности к последовательности (когда OutputMode свойством является 'sequence' для каждого слоя LSTM), любой дополняющий в первых временных шагах может негативно влиять на прогнозы для более ранних временных шагов. Чтобы заполнить или обрезать данные о последовательности справа, установите 'SequencePaddingDirection' опция к 'right'.

Чтобы узнать больше об эффекте дополнения, усечение и разделение входных последовательностей, видят, что Последовательность Дополняет, Усечение, и Разделяет.

Оптимизация производительности, заданная как разделенная запятой пара, состоящая из 'Acceleration' и одно из следующего:

  • 'auto' — Автоматически примените много оптимизации, подходящей для входной сети и аппаратного ресурса.

  • 'mex' — Скомпилируйте и выполните MEX-функцию. Эта опция доступна при использовании графического процессора только. Используя графический процессор требует Parallel Computing Toolbox, и CUDA включил NVIDIA, графический процессор с вычисляет возможность 3.0 или выше. Если Parallel Computing Toolbox или подходящий графический процессор не доступны, то программное обеспечение возвращает ошибку.

  • 'none' — Отключите все ускорение.

Опцией по умолчанию является 'auto'. Если 'auto' задан, MATLAB® применит много совместимой оптимизации. Если вы используете 'auto' опция, MATLAB никогда не генерирует MEX-функцию.

Используя 'Acceleration' опции 'auto' и 'mex' может предложить выигрыши в производительности, но за счет увеличенного начального времени выполнения. Последующие вызовы совместимыми параметрами быстрее. Используйте оптимизацию производительности, когда вы запланируете вызвать функцию многократно с помощью новых входных данных.

'mex' опция генерирует и выполняет MEX-функцию на основе сети и параметров, используемых в вызове функции. У вас может быть несколько MEX-функций, сопоставленных с одной сетью когда-то. Очищение сетевой переменной также очищает любые MEX-функции, сопоставленные с той сетью.

'mex' опция только доступна, когда вы используете графический процессор. Необходимо было установить компилятор C/C++ и Интерфейс GPU Coder™ для пакета поддержки Библиотек Глубокого обучения. Установите пакет поддержки с помощью Add-On Explorer в MATLAB. Для инструкций по настройке смотрите Setup MEX (GPU Coder). GPU Coder не требуется.

'mex' опция не поддерживает все слои. Для списка поддерживаемых слоев смотрите Поддерживаемые Слои (GPU Coder). Рекуррентные нейронные сети (RNNs), содержащий sequenceInputLayer не поддержаны.

Вы не можете использовать MATLAB Compiler™, чтобы развернуть вашу сеть при использовании 'mex' опция.

Пример: 'Acceleration','mex'

Аппаратный ресурс, заданный как разделенная запятой пара, состоящая из 'ExecutionEnvironment' и одно из следующего:

  • 'auto' — Используйте графический процессор, если вы доступны; в противном случае используйте центральный процессор.

  • 'gpu' — Используйте графический процессор. Используя графический процессор требует Parallel Computing Toolbox, и CUDA включил NVIDIA, графический процессор с вычисляет возможность 3.0 или выше. Если Parallel Computing Toolbox или подходящий графический процессор не доступны, то программное обеспечение возвращает ошибку.

  • 'cpu' — Используйте центральный процессор.

Пример: 'ExecutionEnvironment','cpu'

Выходные аргументы

свернуть все

Активации от сетевого слоя, возвращенного как числовой массив или массив ячеек числовых массивов. Формат features зависит от типа входных данных, типа слоя выход и 'OutputAs' опция.

Вход изображений

Если net имеет входной слой изображений, затем features числовой массив.

'OutputAs'features
'channels'

Для 2D данных изображения, features h-by-w-by-c-by-n массив, где h, w и c являются высотой, шириной и количеством каналов для выхода выбранного слоя, соответственно, и n является количеством изображений. В этом случае, features(:,:,:,i) содержит активации для iизображение th.

Для 3-D данных изображения, features h-by-w-by-d-by-c-by-n массив, где h, w, d и c являются высотой, шириной, глубиной и количеством каналов для выхода выбранного слоя, соответственно, и n является количеством изображений. В этом случае, features(:,:,:,:,i) содержит активации для iизображение th.

'rows'n-by-m матрица, где n является количеством наблюдений и m количество выходных элементов от выбранного слоя. В этом случае, features(i,:) содержит активации для iизображение th.
'columns'm-by-n матрица, где m является количеством выходных элементов от выбранного слоя и n, является количеством наблюдений. В этом случае, features(:,i) содержит активации для iизображение th.

Вход последовательности

Если net имеет входной слой последовательности и layer имеет последовательность выход (например, слои LSTM с режимом вывода 'sequence'), затем features массив ячеек. В этом случае, 'OutputAs' опцией должен быть 'channels'.

'OutputAs'features
'channels'

Для векторного входа последовательности, features n-by-1 массив ячеек, c-by-s матрицы, где n является количеством последовательностей, c является количеством функций в последовательности, и s является длиной последовательности.

Для 2D входа последовательности изображений, features n-by-1 массив ячеек, h-by-w-by-c-by-s матрицы, где n является количеством последовательностей, h, w, и c является высотой, шириной и количеством каналов изображений, соответственно, и s является длиной последовательности.

Для 3-D входа последовательности изображений, features n-by-1 массив ячеек, h-by-w-by-c-by-d-by-s матрицы, где n является количеством последовательностей, h, w, d, и c является высотой, шириной, глубиной и количеством каналов изображений, соответственно, и s является длиной последовательности.

В этих случаях, features{i} содержит активации iпоследовательность th.

Если net имеет входной слой последовательности и layer выходные данные пробела (например, слой LSTM с режимом вывода 'last'), затем features числовой массив.

'OutputAs'features
'channels'

Для векторного входа последовательности, features c-by-n матрица, где n является количеством последовательностей, и c является количеством функций в последовательности.

Для 2D входа последовательности изображений, features h-by-w-by-c-by-n массив, где n является количеством последовательностей, h, w, и c является высотой, шириной и количеством каналов изображений, соответственно.

Для 3-D входа последовательности изображений, features h-by-w-by-c-by-d-by-n массив, где n является количеством последовательностей, h, w, d, и c является высотой, шириной, глубиной и количеством каналов изображений, соответственно.

В этих случаях, features{i} содержит активации iпоследовательность th.

'rows'n-by-m матрица, где n является количеством наблюдений и m количество выходных элементов от выбранного слоя. В этом случае, features(i,:) содержит активации для iпоследовательность th.
'columns'm-by-n матрица, где m является количеством выходных элементов от выбранного слоя и n, является количеством наблюдений. В этом случае, features(:,i) содержит активации для iизображение th.

Алгоритмы

Все функции для обучения глубокому обучению, прогноза и валидации в Deep Learning Toolbox™ выполняют расчеты с помощью арифметики с плавающей точкой, с одинарной точностью. Функции для глубокого обучения включают trainNetwork, predict, classify, и activations. Программное обеспечение использует арифметику с одинарной точностью, когда вы обучаете нейронные сети с помощью и центральных процессоров и графических процессоров.

Ссылки

[1] М. Кудо, J. Тояма, и М. Шимбо. "Многомерная Классификация Кривых Используя Прохождение через области". Буквы Распознавания образов. Издание 20, № 11-13, страницы 1103-1111.

[2] Репозиторий Машинного обучения UCI: японский Набор данных Гласных. https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

Расширенные возможности

Введенный в R2016a