reluLayer

Слой Rectified Linear Unit (ReLU)

Описание

Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется.

Эта операция эквивалентна

f(x)={x,x00,x<0.

Создание

Описание

layer = reluLayer создает слой ReLU.

пример

layer = reluLayer('Name',Name) создает слой ReLU и устанавливает дополнительный Name свойство с помощью пары "имя-значение". Например, reluLayer('Name','relu1') создает слой ReLU с именем 'relu1'. Заключите имя свойства в одинарные кавычки.

Свойства

развернуть все

Имя слоя в виде вектора символов или строкового скаляра. Чтобы включать слой в график слоев, необходимо задать непустое уникальное имя слоя. Если вы обучаете серийную сеть со слоем и Name установлен в '', затем программное обеспечение автоматически присваивает имя к слою в учебное время.

Типы данных: char | string

Количество входных параметров слоя. Этот слой принимает один вход только.

Типы данных: double

Введите имена слоя. Этот слой принимает один вход только.

Типы данных: cell

Количество выходных параметров слоя. Этот слой имеет один выход только.

Типы данных: double

Выведите имена слоя. Этот слой имеет один выход только.

Типы данных: cell

Примеры

свернуть все

Создайте слой ReLU с именем 'relu1'.

layer = reluLayer('Name','relu1')
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Включайте слой ReLU в Layer массив.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

Больше о

развернуть все

Ссылки

[1] Nair, Винод и Джеффри Э. Хинтон. "Исправленные линейные модули улучшают ограниченные машины Больцмана". В Продолжениях 27-й международной конференции по вопросам машинного обучения (ICML-10), стр 807-814. 2010.

Расширенные возможности

Генерация кода графического процессора
Сгенерируйте код CUDA® для NVIDIA® графические процессоры с помощью GPU Coder™.

Введенный в R2016a

Для просмотра документации необходимо авторизоваться на сайте