2-D сгруппированный сверточный слой
2-D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для разделяемых по каналам (также называемых разделяемыми по глубине) сверток.
Для каждой группы слой свертывает входной сигнал, перемещая фильтры вдоль входного сигнала вертикально и горизонтально и вычисляя скалярное произведение весов и входного сигнала, а затем добавляя элемент смещения. Слой объединяет свертки для каждой группы независимо. Если число групп равно числу каналов, то этот уровень выполняет канальную свертку.
создает 2-D сгруппированный сверточный слой и задает layer = groupedConvolution2dLayer(filterSize,numFiltersPerGroup,numGroups)FilterSize, NumFiltersPerGroup, и NumGroups свойства.
создает слой для свертки по каналам (также известный как свертка по глубине). В этом случае программное обеспечение определяет layer = groupedConvolution2dLayer(filterSize,numFiltersPerGroup,'channel-wise')NumGroups свойство во время обучения. Этот синтаксис эквивалентен параметру NumGroups к числу входных каналов.
устанавливает необязательный layer = groupedConvolution2dLayer(___,Name,Value)Stride, DilationFactor, Параметры и инициализация, Скорость обучения и регуляризация, и Name с использованием пар имя-значение. Чтобы указать заполнение ввода, используйте 'Padding' аргумент пары имя-значение. Например, groupedConvolution2dLayer(5,128,2,'Padding','same') создает 2-D сгруппированный сверточный слой с 2 группами из 128 фильтров размера [5 5] и вставляет вход в так, чтобы выход имел одинаковый размер. Можно указать несколько пар имя-значение. Заключите каждое имя свойства в отдельные кавычки.
Используйте аргументы пары имя-значение, разделенные запятыми, чтобы указать размер заполнения, добавляемого вдоль краев входного слоя, или задать значение Stride, DilationFactor, Параметры и инициализация, Скорость обучения и регуляризация, и Name свойства. Заключите имена в одинарные кавычки.
groupedConvolution2dLayer(5,128,2,'Padding','same') создает 2-D сгруппированный сверточный слой с 2 группами из 128 фильтров размера [5 5] и вставляет вход в так, чтобы выход имел одинаковый размер.'Padding' - Заполнение входного края[0 0 0 0] (по умолчанию) | вектор неотрицательных целых чисел | 'same'Заполнение входного края, указанное как разделенная запятыми пара, состоящая из 'Padding' и одно из этих значений:
'same' - Добавление дополнения размера, рассчитанного программным обеспечением во время обучения или прогнозирования, чтобы выходной сигнал имел тот же размер, что и входной, когда шаг равен 1. Если шаг больше 1, то выходной размер равен ceil(inputSize/stride), где inputSize - высота или ширина входа и stride - шаг в соответствующем измерении. Программа добавляет один и тот же объем заполнения сверху и снизу, а также слева и справа, если это возможно. Если заполнение, которое должно быть добавлено вертикально, имеет нечетное значение, то программа добавляет дополнительное заполнение в нижнюю часть. Если дополнение, которое необходимо добавить по горизонтали, имеет нечетное значение, то программа добавляет дополнительное дополнение справа.
Неотрицательное целое число p - Добавить заполнение размера p ко всем краям входа.
Вектор [a b] неотрицательных целых чисел - Добавить дополнение размера a сверху и снизу ввода и заполнения размера b слева и справа.
Вектор [t b l r] неотрицательных целых чисел - Добавить дополнение размера t наверху, b на дно, l слева, и r справа от входа.
Пример:
'Padding',1 добавляет один ряд заполнения сверху и снизу, а один столбец заполнения слева и справа от ввода.
Пример:
'Padding','same' добавляет заполнение так, чтобы выходной сигнал имел тот же размер, что и входной (если шаг равен 1).
FilterSize - Высота и ширина фильтровВысота и ширина фильтров, заданных как вектор [h w] двух положительных целых чисел, где h - высота и w - ширина. FilterSize определяет размер локальных областей, к которым соединяются нейроны на входе.
При создании слоя можно указать FilterSize в качестве скаляра для использования одинаковых значений высоты и ширины.
Пример: [5 5] задает фильтры высотой 5 и шириной 5.
NumFiltersPerGroup - Количество фильтров в группеЧисло фильтров в группе, указанное как положительное целое число. Это свойство определяет количество каналов на выходе уровня. Количество выходных каналов: FiltersPerGroup * NumGroups.
Пример:
10
NumGroups - Количество групп'channel-wise'Число групп, указанное как положительное целое число или 'channel-wise'.
Если NumGroups является 'channel-wise', то программное обеспечение создает слой для свертки по каналам (также известный как свертка по глубине). В этом случае слой определяет NumGroups свойство во время обучения. Это значение эквивалентно параметру NumGroups к числу входных каналов.
Количество групп должно равномерно делить количество каналов входа слоя.
Пример:
2
Stride - Размер шага для проходного ввода[1 1] (по умолчанию) | вектор двух положительных целых чиселРазмер шага для прохождения входного сигнала по вертикали и горизонтали, заданный как вектор [a b] двух положительных целых чисел, где a - вертикальный размер шага и b - размер шага по горизонтали. При создании слоя можно указать Stride в качестве скаляра для использования одинакового значения для обоих размеров шага.
Пример:
[2 3] задает вертикальный размер шага 2 и горизонтальный размер шага 3.
DilationFactor - Коэффициент для расширенной свертки[1 1] (по умолчанию) | вектор двух положительных целых чиселКоэффициент для расширенной свертки (также известный как atrous convolution), определяемый как вектор [h w] двух положительных целых чисел, где h - вертикальное расширение и w - горизонтальное расширение. При создании слоя можно указать DilationFactor в качестве скаляра для использования одного и того же значения как для горизонтальных, так и для вертикальных расширений.
Используйте расширенные свертки для увеличения воспринимающего поля (области входа, которую может видеть слой) слоя без увеличения количества параметров или вычислений.
Слой расширяет фильтры, вставляя нули между каждым элементом фильтра. Коэффициент расширения определяет размер шага для выборки входного сигнала или эквивалентный коэффициент повышения дискретизации фильтра. Он соответствует эффективному размеру фильтра (размер фильтра - 1). * Коэффициент расширения + 1. Например, фильтр 3 на 3 с коэффициентом расширения [2 2] эквивалентен фильтру 5 на 5 с нулями между элементами.
Пример: [2 3]
PaddingSize - Размер заполнения[0 0 0 0] (по умолчанию) | вектор четырех неотрицательных целых чиселРазмер заполнения, применяемого к границам ввода, заданный как вектор [t b l r] четырех неотрицательных целых чисел, где t - заполнение, нанесенное на верхнюю часть, b - заполнение, нанесенное на дно, l является дополнением, примененным слева, и r является дополнением, примененным справа.
При создании слоя используйте 'Padding' аргумент пары имя-значение для указания размера заполнения.
Пример:
[1 1 2 2] добавляет один ряд заполнения сверху и снизу и два столбца заполнения слева и справа от ввода.
PaddingMode - Метод определения размера заполнения'manual' (по умолчанию) | 'same'Метод определения размера заполнения, указанный как 'manual' или 'same'.
Программа автоматически устанавливает значение PaddingMode на основе 'Padding' значение, задаваемое при создании слоя.
Если установить 'Padding' опция скаляра или вектора неотрицательных целых чисел, затем программа автоматически устанавливает PaddingMode кому 'manual'.
Если установить 'Padding' опция для 'same', то программное обеспечение автоматически устанавливает PaddingMode кому 'same' и вычисляет размер заполнения во время тренировки так, чтобы выходной сигнал имел тот же размер, что и входной сигнал, когда шаг равен 1. Если шаг больше 1, то выходной размер равен ceil(inputSize/stride), где inputSize - высота или ширина входа и stride - шаг в соответствующем измерении. Программа добавляет один и тот же объем заполнения сверху и снизу, а также слева и справа, если это возможно. Если заполнение, которое должно быть добавлено вертикально, имеет нечетное значение, то программа добавляет дополнительное заполнение в нижнюю часть. Если дополнение, которое необходимо добавить по горизонтали, имеет нечетное значение, то программа добавляет дополнительное дополнение справа.
PaddingValue - Значение для данных площадки'symmetric-include-edge' | 'symmetric-exclude-edge' | 'replicate'Значение для данных площадки, указанное как одно из следующих значений:
PaddingValue | Описание | Пример |
|---|---|---|
| Скаляр | Площадка с указанным скалярным значением. |
|
'symmetric-include-edge' | Прокладка с использованием зеркальных значений входных данных, включая значения кромок. |
|
'symmetric-exclude-edge' | Прокладка с использованием зеркальных значений входных данных, за исключением краевых значений. |
|
'replicate' | Прокладка с использованием повторяющихся граничных элементов ввода |
|
NumChannelsPerGroup - Количество каналов в группе'auto' (по умолчанию) | положительное целое числоКоличество каналов на группу, указанное как 'auto' или положительное целое число. Количество каналов на группу равно числу входных каналов, деленному на количество групп.
Программа автоматически устанавливает это свойство во время обучения.
Пример:
256
WeightsInitializer - Функция инициализации весов'glorot' (по умолчанию) | 'he' | 'narrow-normal' | 'zeros' | 'ones' | дескриптор функцииФункция для инициализации весов, указанных как одно из следующих:
'glorot' - Инициализируйте веса с помощью инициализатора Glorot [1] (также известного как инициализатор Xavier). Инициализатор Glorot независимо отсчитывает из однородного распределения с нулевым средним и дисперсией 2/(numIn + numOut), где numIn = FilterSize(1)*FilterSize(2)*NumChannelsPerGroup и numOut = FilterSize(1)*FilterSize(2)*NumFiltersPerGroup.
'he' - Инициализируйте веса с помощью инициализатора He [2]. Выборка инициализатора He из нормального распределения с нулевым средним и дисперсией 2/numIn, где numIn = FilterSize(1)*FilterSize(2)*NumChannelsPerGroup.
'narrow-normal' - Инициализация весов путем независимой выборки из нормального распределения с нулевым средним и стандартным отклонением 0,01.
'zeros' - Инициализация весов с нулями.
'ones' - Инициализируйте веса единицами.
Дескриптор функции - инициализация весов с помощью пользовательской функции. Если указан дескриптор функции, то функция должна иметь вид weights = func(sz), где sz - размер весов. Пример см. в разделе Определение пользовательской функции инициализации веса.
Слой инициализирует веса только в том случае, если Weights пустое свойство.
Типы данных: char | string | function_handle
BiasInitializer - Функция инициализации смещения'zeros' (по умолчанию) | 'narrow-normal' | 'ones' | дескриптор функцииФункция инициализации смещения, указанная как одно из следующих:
'zeros' - Инициализируйте смещение нулями.
'ones' - Инициализировать смещение с помощью таковых.
'narrow-normal' - Инициализировать смещение путем независимой выборки из нормального распределения с нулевым средним и стандартным отклонением 0,01.
Дескриптор функции - инициализация смещения с помощью пользовательской функции. Если указан дескриптор функции, то функция должна иметь вид bias = func(sz), где sz - размер смещения.
Уровень инициализирует смещение только в том случае, если Bias пустое свойство.
Типы данных: char | string | function_handle
Weights - Веса слоев[] (по умолчанию) | числовой массивВеса слоев для слоя, заданные как числовой массив.
Веса слоев являются обучаемыми параметрами. Можно указать начальное значение для весов непосредственно с помощью Weights свойство слоя. При обучении сети, если Weights свойство слоя является непустым, то trainNetwork использует Weights свойство в качестве начального значения. Если Weights свойство пустое, затем trainNetwork использует инициализатор, указанный WeightsInitializer свойство слоя.
Во время обучения, Weights является FilterSize(1)около-FilterSize(2)около-NumChannelsPerGroupоколо-NumFiltersPerGroupоколо-NumGroups массив, где NumInputChannels - количество каналов входа слоя.
Типы данных: single | double
Bias - Смещения слоев[] (по умолчанию) | числовой массивСмещения слоев для слоя, заданные как числовой массив.
Смещения слоя - это обучаемые параметры. При обучении сети, если Bias является непустым, то trainNetwork использует Bias свойство в качестве начального значения. Если Bias пуст, затем trainNetwork использует инициализатор, указанный BiasInitializer.
Во время обучения, Bias является 1 на 1-by-NumFiltersPerGroupоколо-NumGroups массив.
Типы данных: single | double
WeightLearnRateFactor - Коэффициент коэффициента усвоения весовКоэффициент скорости обучения для весов, заданный как неотрицательный скаляр.
Программное обеспечение умножает этот коэффициент на глобальную скорость обучения, чтобы определить скорость обучения для весов на этом уровне. Например, если WeightLearnRateFactor 2, то скорость обучения для весов в этом слое вдвое превышает текущую глобальную скорость обучения. Программа определяет глобальную скорость обучения на основе настроек, указанных в trainingOptions функция.
Пример:
2
BiasLearnRateFactor - Коэффициент успеваемости для предубежденийКоэффициент скорости обучения для смещений, заданный как неотрицательный скаляр.
Программное обеспечение умножает этот коэффициент на глобальную скорость обучения, чтобы определить скорость обучения для отклонений на этом уровне. Например, если BiasLearnRateFactor 2, тогда скорость обучения для отклонений в слое в два раза превышает текущую глобальную скорость обучения. Программа определяет глобальную скорость обучения на основе настроек, указанных в trainingOptions функция.
Пример:
2
WeightL2Factor - коэффициент регуляризации L2 для весовL2 коэффициент регуляризации для весов, определяемый как неотрицательный скаляр.
Программное обеспечение умножает этот коэффициент на глобальный коэффициент регуляризации L2, чтобы определить L2 регуляризацию для весов в этом слое. Например, если WeightL2Factor 2, то L2 регуляризация для весов в этом слое вдвое больше глобального коэффициента регуляризации L2. Можно указать глобальный коэффициент регуляризации L2 с помощью trainingOptions функция.
Пример:
2
BiasL2Factor - коэффициент регуляризации L2 для отклоненийL2 коэффициент регуляризации для смещений, определяемый как неотрицательный скаляр.
Программное обеспечение умножает этот коэффициент на глобальный коэффициент регуляризации L2, чтобы определить L2 регуляризацию для смещений на этом уровне. Например, если BiasL2Factor 2, то L2 регуляризация для смещений в этом слое вдвое превышает глобальный коэффициент регуляризации L2. Можно указать глобальный коэффициент регуляризации L2 с помощью trainingOptions функция.
Пример:
2
Name - Имя слоя'' (по умолчанию) | символьный вектор | строковый скаляр
Имя слоя, указанное как символьный вектор или строковый скаляр. Чтобы включить слой в график слоев, необходимо указать непустое уникальное имя слоя. Если вы обучаете последовательную сеть с уровнем и Name имеет значение ''затем программа автоматически присваивает имя слою во время обучения.
Типы данных: char | string
NumInputs - Количество входовКоличество входов слоя. Этот слой принимает только один вход.
Типы данных: double
InputNames - Входные имена{'in'} (по умолчанию)Входные имена слоя. Этот слой принимает только один вход.
Типы данных: cell
NumOutputs - Количество выходовКоличество выходов уровня. Этот уровень имеет только один выход.
Типы данных: double
OutputNames - Имена выходных данных{'out'} (по умолчанию)Выходные имена слоя. Этот уровень имеет только один выход.
Типы данных: cell
Создайте сгруппированный сверточный слой с 3 группами из 10 фильтров, каждая с высотой и шириной 11 и именем 'gconv1'.
layer = groupedConvolution2dLayer(11,10,3,'Name','gconv1')
layer =
GroupedConvolution2DLayer with properties:
Name: 'gconv1'
Hyperparameters
FilterSize: [11 11]
NumGroups: 3
NumChannelsPerGroup: 'auto'
NumFiltersPerGroup: 10
Stride: [1 1]
DilationFactor: [1 1]
PaddingMode: 'manual'
PaddingSize: [0 0 0 0]
PaddingValue: 0
Learnable Parameters
Weights: []
Bias: []
Show all properties
Создание канального сверточного (также известного как сверточный) слоя с группами из 10 фильтров, каждая с высотой и шириной 11 и именем 'cwconv1'.
layer = groupedConvolution2dLayer(11,10,'channel-wise','Name','cwconv1')
layer =
GroupedConvolution2DLayer with properties:
Name: 'cwconv1'
Hyperparameters
FilterSize: [11 11]
NumGroups: 'channel-wise'
NumChannelsPerGroup: 'auto'
NumFiltersPerGroup: 10
Stride: [1 1]
DilationFactor: [1 1]
PaddingMode: 'manual'
PaddingSize: [0 0 0 0]
PaddingValue: 0
Learnable Parameters
Weights: []
Bias: []
Show all properties
Типичная сверточная нейронная сеть содержит блоки свертки, пакетной нормализации и слоев ReLU. Например,
filterSize = 3;
numFilters = 16;
convLayers = [
convolution2dLayer(filterSize,numFilters,'Stride',2,'Padding','same')
batchNormalizationLayer
reluLayer];Для разделяемой по каналам свертки (также известной как разделяемая по глубине свертка) замените блок свертки на блоки свертки по каналам и сверточки по точкам.
Укажите размер фильтра и шаг в канальной свертке и количество фильтров в точечной свертке. Для свертки по каналу укажите один фильтр на группу. Для свёртки по точкам укажите фильтры размера 1 в convolution2dLayer.
cwsConvLayers = [
groupedConvolution2dLayer(filterSize,1,'channel-wise','Stride',2,'Padding','same')
batchNormalizationLayer
reluLayer
convolution2dLayer(1,numFilters,'Padding','same')
batchNormalizationLayer
reluLayer];Создайте сеть, содержащую слои для разделяемой по каналам свертки.
layers = [
imageInputLayer([227 227 3])
convolution2dLayer(3,32,'Padding','same')
batchNormalizationLayer
reluLayer
groupedConvolution2dLayer(3,1,'channel-wise','Stride',2,'Padding','same')
batchNormalizationLayer
reluLayer
convolution2dLayer(1,16,'Padding','same')
batchNormalizationLayer
reluLayer
maxPooling2dLayer(2,'Stride',2)
fullyConnectedLayer(5)
softmaxLayer
classificationLayer];[1] Глорот, Ксавье и Йошуа Бенгио. «Понимание сложности обучения глубоким нейронным сетям». Материалы тринадцатой Международной конференции по искусственному интеллекту и статистике, 249-356. Сардиния, Италия: AISTATS, 2010.
[2] Хэ, Каймин, Сянъу Чжан, Шаоцин Жэнь и Цзянь Сунь. «Углубляясь в выпрямители: превосходя показатели на уровне человека по классификации ImageNet». В трудах Международной конференции IEEE 2015 по компьютерному зрению, 1026-1034. Вашингтон, округ Колумбия: Общество компьютерного зрения IEEE, 2015.
Примечания и ограничения по использованию:
Создание кода для библиотеки вычислений ARM не поддерживается для 2-D сгруппированного слоя свертки, имеющего NumGroups свойство имеет целочисленное значение больше двух.
Для создания кода, PaddingValue параметр должен быть равен 0, которое является значением по умолчанию.
Примечания и ограничения по использованию:
Генерация кода для графического процессора ARM Mali не поддерживается для 2-D сгруппированного слоя свертки, который имеет NumGroups свойство установлено как 'channel-wise' или значение больше двух.
Для создания кода, PaddingValue параметр должен быть равен 0, которое является значением по умолчанию.
batchNormalizationLayer | convolution2dLayer | fullyConnectedLayer | maxPooling2dLayer | reluLayer | trainNetwork
Имеется измененная версия этого примера. Открыть этот пример с помощью изменений?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.