Нормализовать все наблюдения для каждого канала независимо
Операция пакетной нормализации нормализует входные данные по всем наблюдениям для каждого канала независимо. Для ускорения обучения сверточной нейронной сети и снижения чувствительности к инициализации сети используйте пакетную нормализацию между сверткой и нелинейными операциями, такими как relu.
После нормализации операция сдвигает вход на обучаемый сдвиг β и масштабирует его на обучаемый масштабный коэффициент γ.
batchnorm функция применяет операцию нормализации пакета к dlarray данные. Используя dlarray объекты упрощают работу с высокоразмерными данными, позволяя маркировать размеры. Например, можно пометить, какие измерения соответствуют пространственным, временным, канальным и пакетным измерениям, используя 'S', 'T', 'C', и 'B' соответственно. Для неуказанных и других размеров используйте 'U' этикетка. Для dlarray функции объекта, которые работают над определенными размерами, можно указать метки размеров, отформатировав dlarray непосредственно или с помощью 'DataFormat' вариант.
Примечание
Применение пакетной нормализации в пределах layerGraph объект или Layer массив, использование batchNormalizationLayer.
применяет операцию нормализации пакета к входным данным dlY = batchnorm(dlX,offset,scaleFactor)dlX и преобразует с использованием заданного и смещения и масштабного коэффициента.
Функция нормализуется над 'S' (пространственный), 'T' (время), 'B' (партия), и 'U' (неуказанные) размеры dlX для каждого канала в 'C' (канал) размерность, независимо.
Для неформатированных входных данных используйте 'DataFormat' вариант.
[ также возвращает среднее значение заполнения и дисперсию входных данных dlY,popMu,popSigmaSq] = batchnorm(dlX,offset,scaleFactor)dlX.
[ применяет операцию нормализации партии с использованием среднего значения и отклонения dlY,updatedMu,updatedSigmaSq] = batchnorm(dlX,offset,scaleFactor,mu,sigmaSq)mu и sigmaSq, соответственно, а также возвращает обновленную статистику скользящего среднего и дисперсии.
Этот синтаксис используется для ведения текущих значений для данных статистики средних значений и отклонений во время обучения. Используйте окончательные обновленные значения среднего и отклонения для прогнозирования и классификации.
[___] = batchnorm(___,'DataFormat',FMT) применяет операцию нормализации пакета к неформатированным входным данным с форматом, указанным в FMT с использованием любого из предыдущих синтаксисов. Продукция dlY является неформатированным dlarray объект с размерами в том же порядке, что и dlX. Например, 'DataFormat','SSCB' задает данные для 2-D ввода изображения в формате 'SSCB' (пространственный, пространственный, канальный, пакетный).
[___] = batchnorm(___, указывает параметры, использующие один или несколько аргументов пары имя-значение в дополнение к входным аргументам в предыдущих синтаксисах. Например, Name,Value)'MeanDecay',0.3 задает скорость затухания вычисления скользящего среднего.
Операция пакетной нормализации нормализует элементы xi входного сигнала, сначала вычисляя среднее значение мкВ и σB2 дисперсии по пространственным, временным и наблюдательным измерениям для каждого канала независимо. Затем он вычисляет нормализованные активации как
где ϵ - константа, которая улучшает числовую стабильность, когда дисперсия очень мала.
Для обеспечения возможности того, что входные данные с нулевым средним и единичной дисперсией не являются оптимальными для операций, которые следуют за пакетной нормализацией, операция пакетной нормализации дополнительно сдвигает и масштабирует активации с помощью преобразования.
i + β,
где смещение β и масштабный коэффициент γ являются обучаемыми параметрами, которые обновляются во время обучения сети.
Чтобы делать прогнозы с сетью после обучения, для нормализации партии требуется фиксированное среднее значение и отклонение для нормализации данных. Это фиксированное среднее значение и дисперсия могут быть рассчитаны на основе данных обучения после обучения или аппроксимированы во время обучения с использованием текущих статистических вычислений.
dlarray | dlconv | dlfeval | dlgradient | fullyconnect | groupnorm | layernorm | relu