clippedReluLayer

Отсеченный слой Rectified Linear Unit (ReLU)

Описание

Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения.

Эта операция эквивалентна:

f(x)={0,x<0x,0x<ceilingceiling,xceiling.

Это усечение препятствует тому, чтобы вывод стал слишком большим.

Создание

Синтаксис

layer = clippedReluLayer(ceiling)
layer = clippedReluLayer(ceiling,'Name',Name)

Описание

layer = clippedReluLayer(ceiling) возвращает отсеченный слой ReLU с усечением, перекрывающим равный ceiling.

пример

layer = clippedReluLayer(ceiling,'Name',Name) устанавливает дополнительное свойство Name.

Свойства

развернуть все

Отсеченный ReLU

Потолок для входного усечения, заданного как положительная скалярная величина.

Пример: 10

Слой

Имя слоя, заданное как вектор символов или скаляр строки. Чтобы включать слой в график слоя, необходимо задать непустое уникальное имя слоя. Если вы обучаете серийную сеть со слоем, и Name установлен в '', то программное обеспечение автоматически присваивает имя к слою в учебное время.

Типы данных: char | string

Количество входных параметров слоя. Этот слой принимает один вход только.

Типы данных: double

Введите имена слоя. Этот слой принимает один вход только.

Типы данных: cell

Количество выходных параметров слоя. Этот слой имеет один вывод только.

Типы данных: double

Выведите имена слоя. Этот слой имеет один вывод только.

Типы данных: cell

Примеры

свернуть все

Создайте отсеченный слой ReLU с именем 'clip1' и усечение, перекрывающее равный 10.

layer = clippedReluLayer(10,'Name','clip1')
layer = 
  ClippedReLULayer with properties:

       Name: 'clip1'

   Hyperparameters
    Ceiling: 10

Включайте отсеченный слой ReLU в массив Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    clippedReluLayer(10)
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Clipped ReLU            Clipped ReLU with ceiling 10
     4   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

Ссылки

[1] Hannun, Awni, Карл Кэз, Джаред Каспер, Брайан Кэйтанзаро, Грег Диэмос, Эрих Элзен, Райан Пренджер, и др. "Глубокая речь: Увеличение масштаба сквозного распознавания речи". Предварительно распечатайте, представленный 17 декабря 2014. http://arxiv.org/abs/1412.5567

Введенный в R2017b