2D сверточный слой
2D сверточный слой применяет скользящие сверточные фильтры к входу. Слой применяет операцию свертки к входу путем перемещения фильтров вдоль входа вертикально и горизонтально и вычисления скалярного произведения весов и входа, и затем добавления срока смещения.
layer = convolution2dLayer(filterSize,numFilters)
layer = convolution2dLayer(filterSize,numFilters,Name,Value)
создает 2D сверточный слой и устанавливает свойства layer
= convolution2dLayer(filterSize
,numFilters
)FilterSize
и NumFilters
.
устанавливает дополнительный layer
= convolution2dLayer(filterSize
,numFilters
,Name,Value
)Stride
, DilationFactor
, NumChannels
, Параметры и Инициализацию, Изучите Уровень и Регуляризацию и свойства Name
с помощью пар "имя-значение". Чтобы задать входное дополнение, используйте аргумент пары "имя-значение" 'Padding'
. Например, convolution2dLayer(11,96,'Stride',4,'Padding',1)
создает 2D сверточный слой с 96 фильтрами размера [11 11]
, шаг [4 4]
и нулевое дополнение размера 1 вдоль всех ребер входа слоя. Можно задать несколько пар "имя-значение". Заключите каждое имя свойства в одинарные кавычки.
Используйте разделенные от запятой аргументы пары "имя-значение", чтобы задать размер нулевого дополнения, чтобы добавить вдоль ребер входа слоя или установить Stride
, DilationFactor
, NumChannels
, Параметры и Инициализацию, Изучить Уровень и Регуляризацию и свойства Name
. Заключите имена в одинарные кавычки.
convolution2dLayer(3,16,'Padding','same')
создает 2D сверточный слой с 16 фильтрами размера дополнение 'same'
и [3 3]
. В учебное время программное обеспечение вычисляет и устанавливает размер нулевого дополнения так, чтобы слой вывод имел тот же размер как вход.'Padding'
— Введите дополнение ребра[0 0 0 0]
(значение по умолчанию) | вектор неотрицательных целых чисел | 'same'
Введите дополнение ребра, заданное как пара, разделенная запятой, состоящая из 'Padding'
и одно из этих значений:
'same'
— Добавьте дополнение размера, вычисленного программным обеспечением при обучении или время прогноза так, чтобы вывод имел тот же размер как вход, когда шаг равняется 1. Если шаг больше, чем 1, то выходным размером является ceil(inputSize/stride)
, где inputSize
является высотой или шириной входа, и stride
является шагом в соответствующей размерности. Программное обеспечение добавляет тот же объем дополнения к верху и низу, и налево и право, если это возможно. Если дополнение, которое должно быть добавлено вертикально, имеет нечетное значение, то программное обеспечение добавляет дополнительное дополнение в нижнюю часть. Если дополнение, которое должно быть добавлено горизонтально, имеет нечетное значение, то программное обеспечение добавляет дополнительное дополнение направо.
Неотрицательный целочисленный p
— Добавляет дополнение размера p
ко всем ребрам входа.
Векторный [a b]
неотрицательных целых чисел — Добавляет дополнение размера a
к верху и низу входа и дополнению размера b
налево и право.
Векторный [t b l r]
неотрицательных целых чисел — Добавляет дополнение размера t
к верхней части, b
к нижней части, l
налево и r
справа от входа.
Пример:
'Padding',1
добавляет одну строку дополнения к верху и низу и один столбец дополнения налево и права на вход.
Пример:
'Padding','same'
добавляет дополнение так, чтобы вывод имел тот же размер как вход (если шаг равняется 1).
FilterSize
— Высота и ширина фильтровВысота и ширина фильтров, заданных как векторный [h w]
двух положительных целых чисел, где h
является высотой и w
, являются шириной. FilterSize
задает размер локальных областей, с которыми нейроны соединяются во входе.
При создании слоя можно задать FilterSize
как скаляр, чтобы использовать то же значение для высоты и ширины.
Пример: [5 5]
задает фильтры с высотой 5 и шириной 5.
NumFilters
— Количество фильтровКоличество фильтров, заданных как положительное целое число. Этот номер соответствует количеству нейронов в сверточном слое, которые соединяются с той же областью во входе. Этот параметр определяет количество каналов (карты функции) в выводе сверточного слоя.
Пример:
96
Stride
— Размер шага для того, чтобы пересечь вход[1 1]
(значение по умолчанию) | вектор двух положительных целых чиселРазмер шага для того, чтобы пересечь вход вертикально и горизонтально, заданный как векторный [a b]
двух положительных целых чисел, где a
является вертикальным размером шага и b
, является горизонтальным размером шага. При создании слоя можно задать Stride
как скаляр, чтобы использовать то же значение для обоих размеров шага.
Пример:
[2 3]
задает вертикальный размер шага 2 и горизонтальный размер шага 3.
DilationFactor
— Фактор для расширенной свертки[1 1]
(значение по умолчанию) | вектор двух положительных целых чиселФактором для расширенной свертки (также известный atrous свертка), заданный как векторный [h w]
двух положительных целых чисел, где h
является вертикальным расширением и w
, является горизонтальное расширение. При создании слоя можно задать DilationFactor
как скаляр, чтобы использовать то же значение и для горизонтальных и для вертикальных расширений.
Используйте расширенные свертки, чтобы увеличить восприимчивое поле (область входа, который слой видит) слоя, не увеличивая число параметров или вычисления.
Слой расширяет фильтры путем вставки нулей между каждым элементом фильтра. Фактор расширения определяет размер шага для выборки входа или эквивалентно фактора повышающей дискретизации фильтра. Это соответствует эффективному размеру фильтра (Filter Size – 1).* Dilation Factor + 1. Например, 3х3 фильтр с фактором расширения [2 2]
эквивалентен фильтру 5 на 5 с нулями между элементами.
Пример: [2 3]
PaddingSize
— Размер дополнения[0 0 0 0]
(значение по умолчанию) | вектор четырех неотрицательных целых чиселРазмер дополнения, чтобы применяться к входным границам, заданным как векторный [t b l r]
четырех неотрицательных целых чисел, где t
является дополнением, применился к верхней части, b
является дополнением, применился к нижней части, l
является дополнением, примененным налево, и r
является дополнением, примененным направо.
Когда вы создадите слой, используйте аргумент пары "имя-значение" 'Padding'
, чтобы задать дополнительный размер.
Пример:
[1 1 2 2]
добавляет одну строку дополнения к верху и низу и два столбца дополнения налево и права на вход.
PaddingMode
— Метод, чтобы определить дополнительный размер'manual'
(значение по умолчанию) | 'same'
Метод, чтобы определить дополнительный размер, заданный как 'manual'
или 'same'
.
Программное обеспечение автоматически устанавливает значение PaddingMode
на основе значения 'Padding'
, которое вы задаете при создании слоя.
Если вы устанавливаете опцию 'Padding'
на скаляр или вектор неотрицательных целых чисел, то программное обеспечение автоматически устанавливает PaddingMode
на 'manual'
.
Если вы устанавливаете опцию 'Padding'
на 'same'
, то программное обеспечение автоматически устанавливает PaddingMode
на 'same'
и вычисляет размер дополнения в учебное время так, чтобы вывод имел тот же размер как вход, когда шаг равняется 1. Если шаг больше, чем 1, то выходным размером является ceil(inputSize/stride)
, где inputSize
является высотой или шириной входа, и stride
является шагом в соответствующей размерности. Программное обеспечение добавляет тот же объем дополнения к верху и низу, и налево и право, если это возможно. Если дополнение, которое должно быть добавлено вертикально, имеет нечетное значение, то программное обеспечение добавляет дополнительное дополнение в нижнюю часть. Если дополнение, которое должно быть добавлено горизонтально, имеет нечетное значение, то программное обеспечение добавляет дополнительное дополнение направо.
Padding
— Размер дополнения[0 0]
(значение по умолчанию) | вектор двух неотрицательных целых чиселСвойство Padding
будет удалено в будущем релизе. Используйте PaddingSize
вместо этого. При создании слоя используйте аргумент пары "имя-значение" 'Padding'
, чтобы задать дополнительный размер.
Размер дополнения, чтобы применяться к входному граничит вертикально и горизонтально, заданный, когда векторный [a b]
двух неотрицательных целых чисел, где a
является дополнением, применился к верху и низу входных данных, и b
является дополнением, применился к левому и правому.
Пример:
[1 1]
добавляет одну строку дополнения к верху и низу и один столбец дополнения налево и права на вход.
NumChannels
— Количество каналов для каждого фильтра'auto'
(значение по умолчанию) | положительное целое числоКоличество каналов для каждого фильтра, заданного как 'auto'
или положительное целое число.
Этот параметр всегда равен количеству каналов входа к сверточному слою. Например, если вход является цветным изображением, то количество каналов для входа равняется 3. Если количество фильтров для сверточного слоя до текущего слоя равняется 16, то количество каналов для текущего слоя равняется 16.
Если NumChannels
является 'auto'
, то программное обеспечение определяет количество каналов в учебное время.
Пример:
256
WeightsInitializer
— Функция, чтобы инициализировать веса'glorot'
(значение по умолчанию) | 'he'
| 'narrow-normal'
| 'zeros'
| 'ones'
| указатель на функциюФункция, чтобы инициализировать веса, заданные как одно из следующего:
'glorot'
– Инициализируйте веса с инициализатором Glorot [4] (также известный как инициализатор Ксавьера). Инициализатор Glorot независимо выборки от равномерного распределения с нулевым средним значением и отклонением 2/(numIn + numOut)
, где numIn = FilterSize(1)*FilterSize(2)*NumChannels
и numOut = FilterSize(1)*FilterSize(2)*NumFilters
.
'he'
– Инициализируйте веса с Ним инициализатор [5]. Он выборки инициализатора от нормального распределения с нулевым средним значением и отклонением 2/numIn
, где numIn = FilterSize(1)*FilterSize(2)*NumChannels
.
'narrow-normal'
– Инициализируйте веса путем независимой выборки от нормального распределения с нулевым средним и стандартным отклонением 0.01.
нули
Инициализируйте веса с нулями.
единицы
Инициализируйте веса с единицами.
Указатель на функцию – Инициализирует веса с пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму weights = func(sz)
, где sz
является размером весов. Для примера смотрите, Задают Пользовательскую Функцию Инициализации Веса.
Слой только инициализирует веса, когда свойство Weights
пусто.
Типы данных: char
| string
| function_handle
BiasInitializer
— Функция, чтобы инициализировать смещение'zeros'
(значение по умолчанию) | 'narrow-normal'
| 'ones'
| указатель на функциюФункция, чтобы инициализировать смещение, заданное как одно из следующего:
нули
Инициализируйте смещение с нулями.
единицы
Инициализируйте смещение с единицами.
'narrow-normal'
– Инициализируйте смещение путем независимой выборки от нормального распределения с нулевым средним и стандартным отклонением 0.01.
Указатель на функцию – Инициализирует смещение с пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму bias = func(sz)
, где sz
является размером смещения.
Слой только инициализирует смещение, когда свойство Bias
пусто.
Типы данных: char
| string
| function_handle
Weights
— Веса слоя[]
(значение по умолчанию) | числовой массивВеса слоя для сверточного слоя, заданного как числовой массив.
Веса слоя являются learnable параметрами. Можно задать начальное значение для весов непосредственно с помощью свойства Weights
слоя. При обучении сети, если свойство Weights
слоя непусто, то trainNetwork
использует свойство Weights
в качестве начального значения. Если свойство Weights
пусто, то trainNetwork
использует инициализатор, заданный свойством WeightsInitializer
слоя.
В учебное время Weights
является FilterSize(1)
-by-FilterSize(2)-by-NumChannels-by-
NumFilters
массив.
Типы данных: single | double
Bias
— Смещения слоя[]
(значение по умолчанию) | числовой массивСлой смещает для сверточного слоя, заданного как числовой массив.
Смещения слоя являются learnable параметрами. При обучении сети, если Bias
непуст, то trainNetwork
использует свойство Bias
в качестве начального значения. Если Bias
пуст, то trainNetwork
использует инициализатор, заданный BiasInitializer
.
В учебное время Bias
является 1 1 NumFilters
массивом.
Типы данных: single | double
WeightLearnRateFactor
— Фактор темпа обучения для весовФактор темпа обучения для весов, заданных как неотрицательный скаляр.
Программное обеспечение умножает этот фактор на глобальный темп обучения, чтобы определить темп обучения для весов в этом слое. Например, если WeightLearnRateFactor
равняется 2, то темп обучения для весов в этом слое является дважды текущим глобальным темпом обучения. Программное обеспечение определяет глобальный темп обучения на основе настроек, заданных с функцией trainingOptions
.
Пример 2
BiasLearnRateFactor
— Фактор темпа обучения для смещенийФактор темпа обучения для смещений, заданных как неотрицательный скаляр.
Программное обеспечение умножает этот фактор на глобальный темп обучения, чтобы определить темп обучения для смещений в этом слое. Например, если BiasLearnRateFactor
равняется 2, то темп обучения для смещений в слое является дважды текущим глобальным темпом обучения. Программное обеспечение определяет глобальный темп обучения на основе настроек, заданных с функцией trainingOptions
.
Пример 2
WeightL2Factor
— Фактор регуляризации L2 для весовФактор регуляризации L2 для весов, заданных как неотрицательный скаляр.
Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить регуляризацию L2 для весов в этом слое. Например, если WeightL2Factor
равняется 2, то регуляризация L2 для весов в этом слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование функции trainingOptions
.
Пример 2
BiasL2Factor
— Фактор регуляризации L2 для смещенийФактор регуляризации L2 для смещений, заданных как неотрицательный скаляр.
Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить регуляризацию L2 для смещений в этом слое. Например, если BiasL2Factor
равняется 2, то регуляризация L2 для смещений в этом слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование функции trainingOptions
.
Пример 2
Имя
Имя слоя''
(значение по умолчанию) | вектор символов | представляет скаляр в виде строки
Имя слоя, заданное как вектор символов или скаляр строки. Чтобы включать слой в график слоя, необходимо задать непустое уникальное имя слоя. Если вы обучаете серийную сеть со слоем, и Name
установлен в ''
, то программное обеспечение автоматически присваивает имя к слою в учебное время.
Типы данных: char | string
NumInputs
— Количество входных параметровКоличество входных параметров слоя. Этот слой принимает один вход только.
Типы данных: double
InputNames
— Введите имена{'in'}
(значение по умолчанию)Введите имена слоя. Этот слой принимает один вход только.
Типы данных: cell
NumOutputs
Количество выходных параметровКоличество выходных параметров слоя. Этот слой имеет один вывод только.
Типы данных: double
OutputNames
— Выведите имена{'out'}
(значение по умолчанию)Выведите имена слоя. Этот слой имеет один вывод только.
Типы данных: cell
Создайте сверточный слой с 96 фильтрами, каждого с высотой и шириной 11. Используйте шаг (размер шага) 4 в горизонтальных и вертикальных направлениях.
layer = convolution2dLayer(11,96,'Stride',4)
layer = Convolution2DLayer with properties: Name: '' Hyperparameters FilterSize: [11 11] NumChannels: 'auto' NumFilters: 96 Stride: [4 4] DilationFactor: [1 1] PaddingMode: 'manual' PaddingSize: [0 0 0 0] Learnable Parameters Weights: [] Bias: [] Show all properties
Включайте сверточный слой в массив Layer
.
layers = [
imageInputLayer([28 28 1])
convolution2dLayer(5,20)
reluLayer
maxPooling2dLayer(2,'Stride',2)
fullyConnectedLayer(10)
softmaxLayer
classificationLayer]
layers = 7x1 Layer array with layers: 1 '' Image Input 28x28x1 images with 'zerocenter' normalization 2 '' Convolution 20 5x5 convolutions with stride [1 1] and padding [0 0 0 0] 3 '' ReLU ReLU 4 '' Max Pooling 2x2 max pooling with stride [2 2] and padding [0 0 0 0] 5 '' Fully Connected 10 fully connected layer 6 '' Softmax softmax 7 '' Classification Output crossentropyex
Чтобы задать веса и функции инициализатора смещения, используйте свойства WeightsInitializer
и BiasInitializer
соответственно. Чтобы задать веса и смещения непосредственно, используйте свойства Weights
и Bias
соответственно.
Задайте функции инициализации
Создайте сверточный слой с 32 фильтрами, каждого с высотой и шириной 5 и задайте инициализатор весов, чтобы быть Им инициализатор.
filterSize = 5; numFilters = 32; layer = convolution2dLayer(filterSize,numFilters, ... 'WeightsInitializer','he')
layer = Convolution2DLayer with properties: Name: '' Hyperparameters FilterSize: [5 5] NumChannels: 'auto' NumFilters: 32 Stride: [1 1] DilationFactor: [1 1] PaddingMode: 'manual' PaddingSize: [0 0 0 0] Learnable Parameters Weights: [] Bias: [] Show all properties
Обратите внимание на то, что свойства Weights
и Bias
пусты. В учебное время программное обеспечение инициализирует эти свойства с помощью заданных функций инициализации.
Задайте пользовательские функции инициализации
Чтобы задать вашу собственную функцию инициализации для весов и смещений, установите свойства WeightsInitializer
и BiasInitializer
на указатель на функцию. Для этих свойств задайте указатели на функцию, которые берут размер весов и смещений как ввод и вывод инициализированное значение.
Создайте сверточный слой с 32 фильтрами, каждого с высотой и шириной 5 и задайте инициализаторы, которые выбирают веса и смещения от Распределения Гаусса со стандартным отклонением 0,0001.
filterSize = 5; numFilters = 32; layer = convolution2dLayer(filterSize,numFilters, ... 'WeightsInitializer', @(sz) rand(sz) * 0.0001, ... 'BiasInitializer', @(sz) rand(sz) * 0.0001)
layer = Convolution2DLayer with properties: Name: '' Hyperparameters FilterSize: [5 5] NumChannels: 'auto' NumFilters: 32 Stride: [1 1] DilationFactor: [1 1] PaddingMode: 'manual' PaddingSize: [0 0 0 0] Learnable Parameters Weights: [] Bias: [] Show all properties
Снова, свойства Weights
и Bias
пусты. В учебное время программное обеспечение инициализирует эти свойства с помощью заданных функций инициализации.
Задайте веса и сместите непосредственно
Создайте полносвязный слой с выходным размером 10 и установите веса и смещение к W
и b
в файле MAT Conv2dWeights.mat
соответственно.
filterSize = 5; numFilters = 32; load Conv2dWeights layer = convolution2dLayer(filterSize,numFilters, ... 'Weights',W, ... 'Bias',b)
layer = Convolution2DLayer with properties: Name: '' Hyperparameters FilterSize: [5 5] NumChannels: 3 NumFilters: 32 Stride: [1 1] DilationFactor: [1 1] PaddingMode: 'manual' PaddingSize: [0 0 0 0] Learnable Parameters Weights: [5x5x3x32 double] Bias: [1x1x32 double] Show all properties
Здесь, свойства Weights
и Bias
содержат заданные значения. В учебное время, если эти свойства непусты, то программное обеспечение использует заданные значения в качестве начальных весов и смещений. В этом случае программное обеспечение не использует функции инициализатора.
Предположим, что размер входа 28 28 1. Создайте сверточный слой с 16 фильтрами, каждого с высотой 6 и шириной 4. Установите горизонтальный и вертикальный шаг на 4.
Убедитесь, что свертка покрывает вход полностью. Для свертки, чтобы полностью покрыть вход, и горизонталь и вертикальные выходные размерности должны быть целыми числами. Для горизонтальной выходной размерности, чтобы быть целым числом, одна строка нулевого дополнения требуется на верху и низе изображения: (28 – 6 + 2 * 1)/4 + 1 = 7. Для вертикальной выходной размерности, чтобы быть целым числом, не требуется никакое нулевое дополнение: (28 – 4 + 2 * 0)/4 + 1 = 7.
Создайте сверточный слой.
layer = convolution2dLayer([6 4],16,'Stride',4,'Padding',[1 0])
layer = Convolution2DLayer with properties: Name: '' Hyperparameters FilterSize: [6 4] NumChannels: 'auto' NumFilters: 16 Stride: [4 4] DilationFactor: [1 1] PaddingMode: 'manual' PaddingSize: [1 1 0 0] Learnable Parameters Weights: [] Bias: [] Show all properties
2D сверточный слой применяет скользящие сверточные фильтры к входу. Слой применяет операцию свертки к входу путем перемещения фильтров вдоль входа вертикально и горизонтально, вычисления скалярного произведения весов и входа, и затем добавления срока смещения.
Сверточный слой состоит из различных компонентов. [1]
Сверточный слой состоит из нейронов, которые соединяются с подобластями входных изображений или выходными параметрами предыдущего слоя. Слой изучает функции, локализованные этими областями при сканировании через изображение. При создании слоя с помощью функции convolution2dLayer
можно задать размер этих областей с помощью входного параметра filterSize
.
Для каждой области функция trainNetwork
вычисляет скалярное произведение весов и входа, и затем добавляет срок смещения. Набор весов, который применяется к области в изображении, называется фильтром. Фильтр проходит входное изображение вертикально и горизонтально, повторяя то же вычисление для каждой области. Другими словами, фильтр применяет операцию свертки к входу.
Это изображение показывает 3х3 сканирование фильтра через вход. Более низкая карта представляет вход, и верхняя карта представляет вывод.
Размер шага, с которым перемещается фильтр, называется шагом. Можно задать размер шага с аргументом пары "имя-значение" Stride
. Локальные области, с которыми соединяются нейроны, могут наложиться в зависимости от значений 'Stride'
и filterSize
.
Это изображение показывает 3х3 сканирование фильтра через вход шагом 2. Более низкая карта представляет вход, и верхняя карта представляет вывод.
Количеством весов в фильтре является h * w * c, где h является высотой, и w является шириной фильтра, соответственно, и c является количеством каналов во входе. Например, если вход является цветным изображением, количество цветовых каналов равняется 3. Количество фильтров определяет количество каналов в выводе сверточного слоя. Задайте количество фильтров с помощью аргумента numFilters
с функцией convolution2dLayer
.
Расширенная свертка является сверткой, в которой фильтры расширены пробелами, вставленными между элементами фильтра. Задайте фактор расширения использование свойства 'DilationFactor'
.
Используйте расширенные свертки, чтобы увеличить восприимчивое поле (область входа, который слой видит) слоя, не увеличивая число параметров или вычисления.
Слой расширяет фильтры путем вставки нулей между каждым элементом фильтра. Фактор расширения определяет размер шага для выборки входа или эквивалентно фактора повышающей дискретизации фильтра. Это соответствует эффективному размеру фильтра (Filter Size – 1).* Dilation Factor + 1. Например, 3х3 фильтр с фактором расширения [2 2]
эквивалентен фильтру 5 на 5 с нулями между элементами.
Это изображение показывает 3х3 фильтр, расширенный фактором двух сканирований через вход. Более низкая карта представляет вход, и верхняя карта представляет вывод.
Когда фильтр проходит вход, он использует тот же набор весов и то же смещение для свертки, формируя карту функции. Каждая карта функции является результатом свертки с помощью различного набора весов и различного смещения. Следовательно, количество карт функции равно количеству фильтров. Общее количество параметров в сверточном слое ((h *w*c + 1) *Number of Filters), где 1 смещение.
Можно также применить нулевое дополнение, чтобы ввести цвета границы изображения вертикально и горизонтально использование аргумента пары "имя-значение" 'Padding'
. Дополнение является строками или столбцами нулей, добавленных к границам входа изображений. Путем корректировки дополнения можно управлять выходным размером слоя.
Это изображение показывает 3х3 сканирование фильтра через вход с дополнением размера 1. Более низкая карта представляет вход, и верхняя карта представляет вывод.
Выходная высота и ширина сверточного слоя (Input Size – ((Filter Size – 1) *Dilation Factor + 1) + 2*Padding)/Stride + 1. Это значение должно быть целым числом для целого изображения, которое будет полностью покрыто. Если комбинация этих опций не приводит изображение быть полностью покрытым, программное обеспечение по умолчанию игнорирует остающуюся часть изображения вдоль правых краев и базовых краев в свертке.
Продукт выходной высоты и ширины дает общее количество нейронов в карте функции, скажите Map Size. Общим количеством нейронов (выходной размер) в сверточном слое является Map Size *Number of Filters.
Например, предположите, что входное изображение является 32 32 3 цветными изображениями. Для сверточного слоя с восемью фильтрами и размером фильтра 5 на 5, количество весов на фильтр равняется 5 * 5 * 3 = 75, и общее количество параметров в слое (75 + 1) * 8 = 608. Если шаг 2 в каждом направлении, и дополнение размера 2 задано, то каждая карта функции 16 16. Это вызвано тем, что (32 – 5 + 2 * 2)/2 + 1 = 16.5, и часть наиболее удаленного нулевого дополнения направо и нижней части изображения отбрасывается. Наконец, общее количество нейронов в слое равняется 16 * 16 * 8 = 2048.
Обычно, результаты этих нейронов проходят через некоторую форму нелинейности, такой как исправленные линейные модули (ReLU).
Можно настроить темпы обучения и опции регуляризации для аргументов пары "имя-значение" использования слоя при определении сверточного слоя. Если вы принимаете решение не задать эти опции, то trainNetwork
использует глобальные опции обучения, заданные с функцией trainingOptions
. Для получения дополнительной информации на глобальной переменной и опциях обучения слоя, смотрите Настроенные Параметры и Обучите Сверточную Нейронную сеть.
Сверточная нейронная сеть может состоять из один или несколько сверточных слоев. Количество сверточных слоев зависит от суммы и сложности данных.
Поведение изменяется в R2019a
Начиная в R2019a, программное обеспечение, по умолчанию, инициализирует веса слоя этого слоя с помощью инициализатора Glorot. Это поведение помогает стабилизировать обучение и обычно уменьшает учебное время глубоких сетей.
В предыдущих релизах программное обеспечение, по умолчанию, инициализирует веса слоя путем выборки от нормального распределения с нулевым средним значением и отклонением 0.01. Чтобы воспроизвести это поведение, установите опцию 'WeightsInitializer'
слоя к 'narrow-normal'
.
[1] LeCun, Y., Б. Бозер, Дж. С. Денкер, Д. Хендерсон, Р. Э. Говард, В. Хаббард и Л. Д. Джекель. "Рукописное Распознавание Цифры с Сетью Обратной связи". В Усовершенствованиях в Нейронных Системах обработки информации 2 (Д. Турецкий, редактор). Сан-Франциско: Морган Кофманн, 1990.
[2] LeCun, Y., Л. Боттоу, И. Бенхио и П. Хэффнер. ''Основанное на градиенте Изучение Примененного Распознавание Документа''. Продолжения IEEE. Издание 86, Номер 11, 1998, стр 2278–2324.
[3] Мерфи, K. P. Машинное обучение: вероятностная перспектива. Кембридж, MA: нажатие MIT, 2012.
[4] Glorot, Ксавьер и Иосуа Бенхио. "Понимая трудность учебных глубоких feedforward нейронных сетей". В Продолжениях тринадцатой международной конференции по вопросам искусственного интеллекта и статистики, стр 249-256. 2010.
[5] Он, Kaiming, Сянюй Чжан, Шаоцин Жэнь и Цзянь Сунь. "Копаясь глубоко в выпрямителях: Превосходная производительность человеческого уровня на imagenet классификации". В Продолжениях международной конференции IEEE по вопросам компьютерного зрения, стр 1026-1034. 2015.
batchNormalizationLayer
| fullyConnectedLayer
| groupedConvolution2dLayer
| maxPooling2dLayer
| reluLayer
| trainNetwork
[1] Кредит изображений: арифметика Свертки (Лицензия)
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.