Нормализуйте все наблюдения для каждого канала независимо
Операция нормализации партии . нормализует входные данные по всем наблюдениям для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшить чувствительность к инициализации сети, используйте нормализацию партии . между сверткой и нелинейными операциями, такими как relu
.
После нормализации операция смещает вход на усвояемое смещение β и масштабирует его на усвояемое γ масштабного фактора.
batchnorm
функция применяет операцию нормализации партии . к dlarray
данные. Использование dlarray
облегчает работу с данными высоких размерностей, позволяя пометить размеры. Для примера можно пометить, какие размерности соответствуют пространственным, временным, канальным и пакетным размерностям, используя 'S'
, 'T'
, 'C'
, и 'B'
метки, соответственно. Для неопределенных и других размерностей используйте 'U'
метка. Для dlarray
функции объекта, которые работают над конкретными размерностями, можно задать метки размера путем форматирования dlarray
объект непосредственно, или при помощи 'DataFormat'
опция.
Примечание
Применение нормализации партии . в layerGraph
объект или Layer
массив, использование batchNormalizationLayer
.
применяет операцию нормализации партии . к входным данным dlY
= batchnorm(dlX
,offset
,scaleFactor
)dlX
и преобразуется с использованием заданного и смещенного и масштабного коэффициента.
Функция нормализуется по 'S'
(пространственный), 'T'
(время), 'B'
(пакет), и 'U'
(не заданные) размерности dlX
для каждого канала в 'C'
(канальная) размерность, независимо.
Для неформатированных входных данных используйте 'DataFormat'
опция.
[
также возвращает среднее население и отклонение входных данных dlY
,popMu
,popSigmaSq
] = batchnorm(dlX
,offset
,scaleFactor
)dlX
.
[
применяет операцию нормализации партии . с помощью среднего значения и отклонения dlY
,updatedMu
,updatedSigmaSq
] = batchnorm(dlX
,offset
,scaleFactor
,mu
,sigmaSq
)mu
и sigmaSq
, соответственно, а также возвращает обновленную статистику скользящего среднего значения и отклонения.
Этот синтаксис используется для поддержания текущих значений для данных статистики среднего и отклонений во время обучения. Используйте окончательные обновленные значения среднего и отклонения для предсказания и классификации.
[___] = batchnorm(___,'DataFormat',FMT)
применяет операцию нормализации партии . к неформатированным входным данным с форматом, заданным FMT
использование любого из предыдущих синтаксисов. Область выхода dlY
является неформатированным dlarray
объект с размерностями в том же порядке, что и dlX
. Для примера, 'DataFormat','SSCB'
задает данные для 2-D изображения входа с форматом 'SSCB'
(пространственный, пространственный, канальный, пакетный).
[___] = batchnorm(___,
задает опции, использующие один или несколько аргументы пары "имя-значение" в дополнение к входным параметрам в предыдущих синтаксисах. Для примера, Name,Value
)'MeanDecay',0.3
устанавливает скорость затухания расчетов скользящего среднего.
Операция нормализации партии . нормирует элементы xi входа, сначала вычисляя среднее μB и отклонение2 по пространственным, временным и наблюдательным размерностям для каждого канала независимо. Затем он вычисляет нормированные активации как
где ϵ является константой, которая улучшает числовую стабильность, когда отклонение очень мала.
Чтобы допустить возможность того, что входы с нулевым средним и единичным отклонением не оптимальны для операций, которые следуют за нормализацией партии ., операция нормализации партии . дополнительно смещает и масштабирует активации с помощью преобразования
где β смещения и γ масштабного коэффициента являются настраиваемыми параметрами, которые обновляются во время сетевого обучения.
Чтобы делать предсказания в сети после обучения, нормализация партии . требует фиксированного среднего и отклонения, чтобы нормализовать данные. Это фиксированное среднее и отклонение могут быть вычислены из обучающих данных после обучения или аппроксимированы во время обучения с использованием запущенных статистических расчетов.
dlarray
| dlconv
| dlfeval
| dlgradient
| fullyconnect
| groupnorm
| layernorm
| relu