batchNormalizationLayer

Слой пакетной нормировки

Описание

Слой нормализации партии. нормирует мини-пакет данных через все наблюдения для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации партии. между сверточными слоями и нелинейностью, такой как слои ReLU.

После нормализации слой масштабирует вход с learnable масштабным коэффициентом γ и переключает его learnable смещением β.

Создание

Описание

layer = batchNormalizationLayer создает слой нормализации партии.

пример

layer = batchNormalizationLayer(Name,Value) создает слой нормализации партии. и устанавливает дополнительный TrainedMean, TrainedVariance\epsilon, Параметры и инициализация, скорость обучения и регуляризация и Name свойства с помощью одной или нескольких пар "имя-значение". Например, batchNormalizationLayer('Name','batchnorm') создает слой нормализации партии. с именем 'batchnorm'.

Свойства

развернуть все

Нормализация партии.

Означайте статистическую величину, используемую для предсказания в виде одного из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Если 'BatchNormalizationStatistics' опцией обучения является 'moving', затем программное обеспечение аппроксимирует статистику нормализации партии. во время обучения с помощью рабочей оценки и после обучения, устанавливает TrainedMean и TrainedVariance свойства к последним значениям движущихся оценок среднего значения и отклонения, соответственно.

Если 'BatchNormalizationStatistics' опцией обучения является 'population', затем после сетевых учебных концов, проходы через данные программного обеспечения еще раз и наборы TrainedMean и TrainedVariance свойства к среднему значению и отклонению, вычисленному из целого обучающего набора данных, соответственно.

Слой использует TrainedMean и TrainedVariance нормировать вход во время предсказания.

Статистическая величина отклонения использовала для предсказания в виде одного из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Если 'BatchNormalizationStatistics' опцией обучения является 'moving', затем программное обеспечение аппроксимирует статистику нормализации партии. во время обучения с помощью рабочей оценки и после обучения, устанавливает TrainedMean и TrainedVariance свойства к последним значениям движущихся оценок среднего значения и отклонения, соответственно.

Если 'BatchNormalizationStatistics' опцией обучения является 'population', затем после сетевых учебных концов, проходы через данные программного обеспечения еще раз и наборы TrainedMean и TrainedVariance свойства к среднему значению и отклонению, вычисленному из целого обучающего набора данных, соответственно.

Слой использует TrainedMean и TrainedVariance нормировать вход во время предсказания.

Постоянный, чтобы добавить к мини-пакетным отклонениям в виде числового скаляра равняются или больше, чем 1e-5.

Слой добавляет эту константу в мини-пакетные отклонения перед нормализацией, чтобы гарантировать числовую устойчивость и избежать деления на нуль.

Количество входа образовывает канал в виде 'auto' или положительное целое число.

Это свойство всегда равно количеству каналов входа к слою. Если NumChannels 'auto', затем программное обеспечение автоматически определяет правильное значение для количества каналов в учебное время.

Параметры и инициализация

Функция, чтобы инициализировать масштабные коэффициенты канала в виде одного из следующего:

  • 'ones' – Инициализируйте масштабные коэффициенты канала единицами.

  • 'zeros' – Инициализируйте масштабные коэффициенты канала нулями.

  • 'narrow-normal' – Инициализируйте масштабные коэффициенты канала путем независимой выборки от нормального распределения со средним значением нулевого и стандартного отклонения 0,01.

  • Указатель на функцию – Инициализирует масштабные коэффициенты канала пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму scale = func(sz), где sz размер шкалы. Для примера смотрите, Задают Пользовательскую Функцию Инициализации Веса.

Слой только инициализирует масштабные коэффициенты канала когда Scale свойство пусто.

Типы данных: char | string | function_handle

Функция, чтобы инициализировать смещения канала в виде одного из следующего:

  • 'zeros' – Инициализируйте смещения канала нулями.

  • 'ones' – Инициализируйте смещения канала единицами.

  • 'narrow-normal' – Инициализируйте смещения канала путем независимой выборки от нормального распределения со средним значением нулевого и стандартного отклонения 0,01.

  • Указатель на функцию – Инициализирует смещения канала пользовательской функцией. Если вы задаете указатель на функцию, то функция должна иметь форму offset = func(sz), где sz размер шкалы. Для примера смотрите, Задают Пользовательскую Функцию Инициализации Веса.

Слой только инициализирует смещения канала когда Offset свойство пусто.

Типы данных: char | string | function_handle

Масштабные коэффициенты канала γ в виде числового массива.

Масштабными коэффициентами канала являются настраиваемые параметры. Когда вы обучаете сеть, если Scale непусто, затем trainNetwork использует Scale свойство как начальное значение. Если Scale пусто, затем trainNetwork использует инициализатор, заданный ScaleInitializer.

В учебное время, Scale одно из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Канал возмещает β в виде числового массива.

Смещения канала являются настраиваемыми параметрами. Когда вы обучаете сеть, если Offset непусто, затем trainNetwork использует Offset свойство как начальное значение. Если Offset пусто, затем trainNetwork использует инициализатор, заданный OffsetInitializer.

В учебное время, Offset одно из следующего:

  • Для 2D входа изображений, числового массива размера 1 1 NumChannels

  • Для 3-D входа изображений, числового массива размера 1 1 1 NumChannels

  • Для функции или входа последовательности, числового массива размера NumChannels- 1

Значение затухания для расчета скользящего среднего значения в виде числового скаляра между 0 и 1.

Когда 'BatchNormalizationStatistics' опцией обучения является 'moving', в каждой итерации слой обновляет использование значения скользящего среднего значения

μ*=λμμ^+(1λμ)μ,

где μ* обозначает обновленное среднее значение, λμ обозначает среднее значение затухания, μ^ обозначает среднее значение входа слоя, и μ обозначает последнее значение значения скользящего среднего значения.

Если 'BatchNormalizationStatistics' опцией обучения является 'population', затем эта опция не оказывает влияния.

Типы данных: single | double

Значение затухания для движущегося расчета отклонения в виде числового скаляра между 0 и 1.

Когда 'BatchNormalizationStatistics' опцией обучения является 'moving', в каждой итерации слой обновляет движущееся использование значения отклонения

σ2*=λσ2σ2^+(1λσ2)σ2,

где σ2* обозначает обновленное отклонение, λσ2 обозначает значение затухания отклонения, σ2^ обозначает отклонение входа слоя, и σ2 обозначает последнее значение движущегося значения отклонения.

Если 'BatchNormalizationStatistics' опцией обучения является 'population', затем эта опция не оказывает влияния.

Типы данных: single | double

Скорость обучения и регуляризация

Фактор скорости обучения для масштабных коэффициентов в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальную скорость обучения, чтобы определить скорость обучения для масштабных коэффициентов в слое. Например, если ScaleLearnRateFactor 2, затем скорость обучения для масштабных коэффициентов в слое является дважды текущей глобальной скоростью обучения. Программное обеспечение определяет глобальную скорость обучения на основе настроек, заданных с trainingOptions функция.

Фактор скорости обучения для смещений в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальную скорость обучения, чтобы определить скорость обучения для смещений в слое. Например, если OffsetLearnRateFactor 2, затем скорость обучения для смещений в слое является дважды текущей глобальной скоростью обучения. Программное обеспечение определяет глобальную скорость обучения на основе настроек, заданных с trainingOptions функция.

Фактор регуляризации L2 для масштабных коэффициентов в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить скорость обучения для масштабных коэффициентов в слое. Например, если ScaleL2Factor 2, затем регуляризация L2 для смещений в слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование trainingOptions функция.

Фактор регуляризации L2 для смещений в виде неотрицательного скаляра.

Программное обеспечение умножает этот фактор на глобальный фактор регуляризации L2, чтобы определить скорость обучения для смещений в слое. Например, если OffsetL2Factor 2, затем регуляризация L2 для смещений в слое является дважды глобальным фактором регуляризации L2. Можно задать глобальный фактор регуляризации L2 использование trainingOptions функция.

Слой

Имя слоя в виде вектора символов или строкового скаляра. Для Layer вход массивов, trainNetwork, assembleNetwork, layerGraph, и dlnetwork функции автоматически присваивают имена к слоям с Name установите на ''.

Типы данных: char | string

Это свойство доступно только для чтения.

Количество входных параметров слоя. Этот слой принимает один вход только.

Типы данных: double

Это свойство доступно только для чтения.

Введите имена слоя. Этот слой принимает один вход только.

Типы данных: cell

Это свойство доступно только для чтения.

Количество выходных параметров слоя. Этот слой имеет один выход только.

Типы данных: double

Это свойство доступно только для чтения.

Выведите имена слоя. Этот слой имеет один выход только.

Типы данных: cell

Примеры

свернуть все

Создайте слой нормализации партии. с именем 'BN1'.

layer = batchNormalizationLayer('Name','BN1')
layer = 
  BatchNormalizationLayer with properties:

               Name: 'BN1'
        NumChannels: 'auto'
        TrainedMean: []
    TrainedVariance: []

   Hyperparameters
          MeanDecay: 0.1000
      VarianceDecay: 0.1000
            Epsilon: 1.0000e-05

   Learnable Parameters
             Offset: []
              Scale: []

  Show all properties

Включайте слои нормализации партии. в Layer массив.

layers = [
    imageInputLayer([32 32 3]) 
  
    convolution2dLayer(3,16,'Padding',1)
    batchNormalizationLayer
    reluLayer   
    
    maxPooling2dLayer(2,'Stride',2)
    
    convolution2dLayer(3,32,'Padding',1)
    batchNormalizationLayer
    reluLayer
          
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer
    ]
layers = 
  11x1 Layer array with layers:

     1   ''   Image Input             32x32x3 images with 'zerocenter' normalization
     2   ''   Convolution             16 3x3 convolutions with stride [1  1] and padding [1  1  1  1]
     3   ''   Batch Normalization     Batch normalization
     4   ''   ReLU                    ReLU
     5   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     6   ''   Convolution             32 3x3 convolutions with stride [1  1] and padding [1  1  1  1]
     7   ''   Batch Normalization     Batch normalization
     8   ''   ReLU                    ReLU
     9   ''   Fully Connected         10 fully connected layer
    10   ''   Softmax                 softmax
    11   ''   Classification Output   crossentropyex

Больше о

развернуть все

Алгоритмы

Операция нормализации партии. нормирует элементы xi входа первым вычислением среднего μB и отклонения σB2 по пространственному, время и размерности наблюдения для каждого канала независимо. Затем это вычисляет нормированные активации как

xi^=xiμBσB2+ϵ,

где ϵ является константой, которая улучшает числовую устойчивость, когда отклонение очень мало.

Допускать возможность, что входные параметры с нулевым средним значением и модульным отклонением не оптимальны для операций, которые следуют за нормализацией партии., операция нормализации партии. дальнейшие сдвиги и масштабируют активации с помощью преобразования

yi=γx^i+β,

где смещение β и масштабный коэффициент, γ является настраиваемыми параметрами, которые обновляются во время сетевого обучения.

Чтобы сделать предсказания с сетью после обучения, нормализация партии. требует, чтобы фиксированное среднее значение и отклонение нормировали данные. Это фиксированное среднее значение и отклонение могут быть вычислены от обучающих данных после обучения или аппроксимированы во время использования обучения рабочие статистические расчеты.

Если 'BatchNormalizationStatistics' опцией обучения является 'moving', затем программное обеспечение аппроксимирует статистику нормализации партии. во время обучения с помощью рабочей оценки и после обучения, устанавливает TrainedMean и TrainedVariance свойства к последним значениям движущихся оценок среднего значения и отклонения, соответственно.

Если 'BatchNormalizationStatistics' опцией обучения является 'population', затем после сетевых учебных концов, проходы через данные программного обеспечения еще раз и наборы TrainedMean и TrainedVariance свойства к среднему значению и отклонению, вычисленному из целого обучающего набора данных, соответственно.

Слой использует TrainedMean и TrainedVariance нормировать вход во время предсказания.

Ссылки

[1] Иоффе, Сергей и Кристиан Сзеджеди. “Нормализация партии.: Ускорение Глубокого Сетевого Обучения путем Сокращения Внутреннего Ковариационного Сдвига”. Предварительно распечатайте, представленный 2 марта 2015. https://arxiv.org/abs/1502.03167.

Расширенные возможности

Генерация кода C/C++
Генерация кода C и C++ с помощью MATLAB® Coder™.

Генерация кода графического процессора
Сгенерируйте код CUDA® для NVIDIA® графические процессоры с помощью GPU Coder™.

Введенный в R2017b
Для просмотра документации необходимо авторизоваться на сайте