Нормируйте через все наблюдения для каждого канала независимо
Операция нормализации партии. нормирует входные данные через все наблюдения для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте нормализацию партии. между сверткой и нелинейными операциями такой как relu
.
После нормализации операция переключает вход learnable смещением β и масштабирует его learnable масштабным коэффициентом γ.
batchnorm
функция применяет операцию нормализации партии. к dlarray
данные. Используя dlarray
объекты делают работу с высокими размерными данными легче, позволяя вам пометить размерности. Например, можно пометить, которому размерности соответствуют пространственный, время, канал, и обрабатывают размерности в пакетном режиме с помощью 'S'
T
C
, и 'B'
метки, соответственно. Для незаданных и других размерностей используйте 'U'
метка. Для dlarray
возразите функциям, которые действуют по конкретным размерностям, можно задать метки размерности путем форматирования dlarray
возразите непосредственно, или при помощи 'DataFormat'
опция.
Примечание
Применять нормализацию партии. в layerGraph
объект или Layer
массив, используйте batchNormalizationLayer
.
применяет операцию нормализации партии. к входным данным dlY
= batchnorm(dlX
,offset
,scaleFactor
)dlX
и преобразовывает использование заданного и смещения и масштабного коэффициента.
Функция нормирует по 'S'
(пространственный), 'T'
(время), 'B'
(пакет) и 'U'
(незаданные) размерности dlX
для каждого канала в 'C'
(канал) размерность, независимо.
Для бесформатных входных данных используйте 'DataFormat'
опция.
[
также возвращает среднее значение населения и отклонение входных данных dlY
,popMu
,popSigmaSq
] = batchnorm(dlX
,offset
,scaleFactor
)dlX
.
[
применяет операцию нормализации партии. с помощью среднего значения и отклонения dlY
,updatedMu
,updatedSigmaSq
] = batchnorm(dlX
,offset
,scaleFactor
,mu
,sigmaSq
)mu
и sigmaSq
, соответственно, и также возвращает обновленное скользящее среднее значение и статистику отклонения.
Используйте этот синтаксис, чтобы обеспечить рабочие значения для среднего значения и данных о статистике отклонения во время обучения. Используйте обновленные значения финала среднего значения и отклонения для предсказания и классификации.
[___] = batchnorm(___,'DataFormat',FMT)
применяет операцию нормализации партии. к бесформатным входным данным с форматом, заданным FMT
использование любого из предыдущих синтаксисов. Выход dlY
бесформатный dlarray
объект с размерностями в том же порядке как dlX
. Например, 'DataFormat','SSCB'
задает данные для 2D входа изображений с форматом 'SSCB'
(пространственный, пространственный, канал, пакет).
[___] = batchnorm(___,
задает опции с помощью одного или нескольких аргументов пары "имя-значение" в дополнение к входным параметрам в предыдущих синтаксисах. Например, Name,Value
)'MeanDecay',0.3
устанавливает уровень затухания расчета скользящего среднего значения.
Операция нормализации партии. нормирует элементы xi входа первым вычислением среднего μB и отклонения σB2 по пространственному, время и размерности наблюдения для каждого канала независимо. Затем это вычисляет нормированные активации как
где ϵ является константой, которая улучшает числовую устойчивость, когда отклонение очень мало.
Допускать возможность, что входные параметры с нулевым средним значением и модульным отклонением не оптимальны для операций, которые следуют за нормализацией партии., операция нормализации партии. дальнейшие сдвиги и масштабируют активации с помощью преобразования
где смещение β и масштабный коэффициент, γ является настраиваемыми параметрами, которые обновляются во время сетевого обучения.
Чтобы сделать предсказания с сетью после обучения, нормализация партии. требует, чтобы фиксированное среднее значение и отклонение нормировали данные. Это фиксированное среднее значение и отклонение могут быть вычислены от обучающих данных после обучения или аппроксимированы во время использования обучения рабочие статистические расчеты.
dlarray
| dlconv
| dlfeval
| dlgradient
| fullyconnect
| groupnorm
| layernorm
| relu