Уровень нормализации группы
Уровень нормализации группы нормализует мини-пакет данных по сгруппированным подмножествам каналов для каждого наблюдения независимо. Чтобы ускорить обучение сверточной нейронной сети и снизить чувствительность к инициализации сети, используйте уровни групповой нормализации между сверточными слоями и нелинейностями, такими как уровни ReLU.
После нормализации уровень масштабирует входные данные с помощью обучаемого масштабного коэффициента γ и сдвигается на обучаемое смещение β.
создает слой нормализации группы и задает необязательный layer = groupNormalizationLayer(numGroups,Name,Value)'Epsilon', Параметры и инициализация, Скорость обучения и регуляризация, и Name с использованием одного или нескольких аргументов пары имя-значение. Можно указать несколько аргументов пары имя-значение. Заключите каждое имя свойства в кавычки.
Операция групповой нормализации нормализует элементы xi входного сигнала, сначала вычисляя среднее значение мкG и σG2 дисперсии по пространственным, временным и сгруппированным подмножествам размеров канала для каждого наблюдения независимо. Затем он вычисляет нормализованные активации как
μGσG2 + start,
где ϵ - константа, которая улучшает числовую стабильность, когда дисперсия очень мала. Для обеспечения возможности того, что входы с нулевым средним и единичной дисперсией не являются оптимальными для операций, которые следуют за групповой нормализацией, операция групповой нормализации дополнительно сдвигает и масштабирует активации с помощью преобразования
i + β,
где смещение β и масштабный коэффициент γ являются обучаемыми параметрами, которые обновляются во время обучения сети.
[1] У, Юсинь и Каймин Хэ. «Нормализация группы». ArXiv:1803.08494 [Cs], 11 июня 2018 года. http://arxiv.org/abs/1803.08494.
batchNormalizationLayer | convolution2dLayer | fullyConnectedLayer | instanceNormalizationLayer | layerNormalizationLayer | reluLayer | trainingOptions | trainNetwork