groupNormalizationLayer

Слой групповой нормировки

Описание

Слой нормализации группы нормирует мини-пакет данных через сгруппированные подмножества каналов для каждого наблюдения независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации группы между сверточными слоями и нелинейностью, такой как слои ReLU.

После нормализации слой масштабирует вход с learnable масштабным коэффициентом γ и переключает его learnable смещением β.

Создание

Описание

пример

layer = groupNormalizationLayer(numGroups) создает слой нормализации группы.

пример

layer = groupNormalizationLayer(numGroups,Name,Value) создает слой нормализации группы и устанавливает дополнительный 'Epsilon', Параметры и инициализация, скорость обучения и регуляризация и Name свойства с помощью одних или нескольких аргументов name-value. Можно задать несколько аргументов name-value. Заключите каждое имя свойства в кавычки.

Входные параметры

развернуть все

Количество групп, на которые можно разделить каналы входных данных в виде одного из следующего:

  • Положительное целое число – Делит входящие каналы на конкретное количество групп. Конкретное количество групп должно разделить количество каналов входных данных точно.

  • 'all-channels' – Группа все входящие каналы в одну группу. Эта операция также известна как нормализацию слоя. В качестве альтернативы используйте layerNormalizationLayer.

  • 'channel-wise' – Обработайте все входящие каналы как отдельные группы. Эта операция также известна как нормализацию экземпляра. В качестве альтернативы используйте instanceNormalizationLayer.

Свойства

развернуть все

Нормализация группы

Постоянный, чтобы добавить к мини-пакетным отклонениям в виде числового скаляра равняются или больше, чем 1e-5.

Слой добавляет эту константу в мини-пакетные отклонения перед нормализацией, чтобы гарантировать числовую устойчивость и избежать деления на нуль.

Количество входа образовывает канал в виде 'auto' или положительное целое число.

Это свойство всегда равно количеству каналов входа к слою. Если NumChannels 'auto', затем программное обеспечение автоматически определяет правильное значение для количества каналов в учебное время.

Параметры и инициализация

Функция, чтобы инициализировать масштабные коэффициенты канала в виде одного из следующего:

  • 'ones' – Инициализируйте масштабные коэффициенты канала единицами.

  • 'zeros' – Инициализируйте масштабные коэффициенты канала нулями.

  • 'narrow-normal' – Инициализируйте масштабные коэффициенты канала путем независимой выборки от нормального распределения со средним значением нулевого и стандартного отклонения 0,01.

  • Указатель на функцию – Инициализирует масштабные коэффициенты канала пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму scale = func(sz), где sz размер шкалы. Для примера смотрите, Задают Пользовательскую Функцию Инициализации Веса.

Слой только инициализирует масштабные коэффициенты канала когда Scale свойство пусто.

Типы данных: char | string | function_handle

Функция, чтобы инициализировать смещения канала в виде одного из следующего:

  • 'zeros' – Инициализируйте смещения канала нулями.

  • 'ones' – Инициализируйте смещения канала единицами.

  • 'narrow-normal' – Инициализируйте смещения канала путем независимой выборки от нормального распределения со средним значением нулевого и стандартного отклонения 0,01.

  • Указатель на функцию – Инициализирует смещения канала пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму offset = func(sz), где sz размер шкалы. Для примера смотрите, Задают Пользовательскую Функцию Инициализации Веса.

Слой только инициализирует смещения канала когда Offset свойство пусто.

Типы данных: char | string | function_handle

Масштабные коэффициенты канала γ в виде числового массива.

Масштабными коэффициентами канала являются настраиваемые параметры. Когда вы обучаете сеть, если Scale непусто, затем trainNetwork использует Scale свойство как начальное значение. Если Scale пусто, затем trainNetwork использует инициализатор, заданный ScaleInitializer.

В учебное время, Scale одно из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Канал возмещает β в виде числового массива.

Смещения канала являются настраиваемыми параметрами. Когда вы обучаете сеть, если Offset непусто, затем trainNetwork использует Offset свойство как начальное значение. Если Offset пусто, затем trainNetwork использует инициализатор, заданный OffsetInitializer.

В учебное время, Offset одно из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Скорость обучения и регуляризация

Фактор скорости обучения для масштабных коэффициентов в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальную скорость обучения, чтобы определить скорость обучения для масштабных коэффициентов в слое. Например, если ScaleLearnRateFactor 2, затем скорость обучения для масштабных коэффициентов в слое является дважды текущей глобальной скоростью обучения. Программное обеспечение определяет глобальную скорость обучения на основе настроек, заданных с trainingOptions функция.

Фактор скорости обучения для смещений в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальную скорость обучения, чтобы определить скорость обучения для смещений в слое. Например, если OffsetLearnRateFactor 2, затем скорость обучения для смещений в слое является дважды текущей глобальной скоростью обучения. Программное обеспечение определяет глобальную скорость обучения на основе настроек, заданных с trainingOptions функция.

Фактор регуляризации L2 для масштабных коэффициентов в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить скорость обучения для масштабных коэффициентов в слое. Например, если ScaleL2Factor 2, затем регуляризация L2 для смещений в слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование trainingOptions функция.

Фактор регуляризации L2 для смещений в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить скорость обучения для смещений в слое. Например, если OffsetL2Factor 2, затем регуляризация L2 для смещений в слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование trainingOptions функция.

Слой

Имя слоя в виде вектора символов или строкового скаляра. Для Layer вход массивов, trainNetwork, assembleNetwork, layerGraph, и dlnetwork функции автоматически присваивают имена к слоям с Name установите на ''.

Типы данных: char | string

Это свойство доступно только для чтения.

Количество входных параметров слоя. Этот слой принимает один вход только.

Типы данных: double

Это свойство доступно только для чтения.

Введите имена слоя. Этот слой принимает один вход только.

Типы данных: cell

Это свойство доступно только для чтения.

Количество выходных параметров слоя. Этот слой имеет один выход только.

Типы данных: double

Это свойство доступно только для чтения.

Выведите имена слоя. Этот слой имеет один выход только.

Типы данных: cell

Примеры

свернуть все

Создайте слой нормализации группы, который нормирует входящие данные через три группы каналов. Назовите слой 'groupnorm'.

layer = groupNormalizationLayer(3,'Name','groupnorm')
layer = 
  GroupNormalizationLayer with properties:

           Name: 'groupnorm'
    NumChannels: 'auto'

   Hyperparameters
      NumGroups: 3
        Epsilon: 1.0000e-05

   Learnable Parameters
         Offset: []
          Scale: []

  Show all properties

Включайте слой нормализации группы в Layer массив. Нормируйте поступление 20 каналов в четырех группах.

layers = [
    imageInputLayer([28 28 3])
    convolution2dLayer(5,20)
    groupNormalizationLayer(4)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  8x1 Layer array with layers:

     1   ''   Image Input             28x28x3 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Group Normalization     Group normalization
     4   ''   ReLU                    ReLU
     5   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     6   ''   Fully Connected         10 fully connected layer
     7   ''   Softmax                 softmax
     8   ''   Classification Output   crossentropyex

Больше о

развернуть все

Алгоритмы

Операция нормализации группы нормирует элементы xi входа первым вычислением среднего μG и отклонения σG2 по пространственному, время и сгруппированные подмножества размерностей канала для каждого наблюдения независимо. Затем это вычисляет нормированные активации как

x^i=xiμGσG2+ε,

где ϵ является константой, которая улучшает числовую устойчивость, когда отклонение очень мало. Допускать возможность, что входные параметры с нулевым средним значением и модульным отклонением не оптимальны для операций, которые следуют за нормализацией группы, операция нормализации группы дальнейшие сдвиги и масштабируют активации с помощью преобразования

yi=γx^i+β,

где смещение β и масштабный коэффициент, γ является настраиваемыми параметрами, которые обновляются во время сетевого обучения.

Ссылки

[1] Ву, Yuxin и Кэйминг Хэ. “Нормализация группы”. Предварительная печать представлена 11 июня 2018. https://arxiv.org/abs/1803.08494.

Расширенные возможности

Генерация кода C/C++
Генерация кода C и C++ с помощью MATLAB® Coder™.

Генерация кода графического процессора
Сгенерируйте код CUDA® для NVIDIA® графические процессоры с помощью GPU Coder™.

Введенный в R2020b