leakyrelu

Применить негерметичное включение выпрямленного линейного модуля

Описание

Операция активации утечки выпрямленного линейного модуля (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение, меньше нуля, умножается на фиксированный масштабный коэффициент.

Эта операция эквивалентна

f(x)={x,x0scale*x,x<0.

Примечание

Эта функция применяет утечку операции ReLU к dlarray данные. Если вы хотите применить утечку активации ReLU в layerGraph объект или Layer массив, используйте следующий слой:

пример

dlY = leakyrelu(dlX) вычисляет утечку активации ReLU входного dlX путем применения пороговой операции. Все значения в dlX меньше нуля умножаются на масштабный коэффициент по умолчанию 0.01.

dlY = leakyrelu(dlX,scaleFactor) задает коэффициент шкалы для утечки операции ReLU.

Примеры

свернуть все

Используйте leakyrelu функция для масштабирования отрицательных значений в входных данных.

Создайте входные данные как одно наблюдение случайных значений с высотой и шириной 12 и 32 канала.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Вычислите утечку активации ReLU с помощью шкалы фактора 0.05 для отрицательных значений во входе.

dlY = leakyrelu(dlX,0.05);

Входные параметры

свернуть все

Входные данные, заданные как dlarray с метками размерностей или без.

Типы данных: single | double

Масштабный коэффициент для отрицательных входов, заданный как числовой скаляр. Значение по умолчанию 0.01.

Типы данных: single | double

Выходные аргументы

свернуть все

Утечки активации ReLU, возвращенные как dlarray. Область выхода dlY имеет тот же базовый тип данных, что и входной dlX.

Если входные данные dlX является форматированным dlarray, dlY имеет те же метки размерностей, что и dlX. Если входные данные не являются форматированным dlarray, dlY является неформатированным dlarray с тем же порядком размерности, что и входные данные.

Расширенные возможности

Введенный в R2019b