leakyrelu

Примените текучую исправленную линейную модульную активацию

Описание

Текучий исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный масштабный коэффициент.

Эта операция эквивалентна

f(x)={x,x0scale*x,x<0.

Примечание

Эта функция применяет текучую операцию ReLU к dlarray данные. Если вы хотите применить текучую активацию ReLU в layerGraph объект или Layer массив, используйте следующий слой:

пример

dlY = leakyrelu(dlX) вычисляет текучую активацию ReLU входа dlX путем применения пороговой операции. Все значения в dlX меньше, чем нуль умножаются на масштабный коэффициент по умолчанию 0.01.

dlY = leakyrelu(dlX,scaleFactor) задает масштабный коэффициент для текучей операции ReLU.

Примеры

свернуть все

Используйте leakyrelu функционируйте, чтобы масштабировать отрицательные величины во входных данных.

Создайте входные данные как одно наблюдение за случайными значениями с высотой и шириной 12 и 32 каналов.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Вычислите текучую активацию ReLU с помощью масштабного коэффициента 0.05 для отрицательных величин во входе.

dlY = leakyrelu(dlX,0.05);

Входные параметры

свернуть все

Входные данные в виде dlarray с или без меток размерности.

Типы данных: single | double

Масштабный коэффициент для отрицательных входных параметров в виде числового скаляра. Значением по умолчанию является 0.01.

Типы данных: single | double

Выходные аргументы

свернуть все

Текучие активации ReLU, возвращенные как dlarray. Выход dlY имеет тот же базовый тип данных как вход dlX.

Если входные данные dlX отформатированный dlarray, dlY имеет те же метки размерности как dlX. Если входными данными не является отформатированный dlarray, dlY бесформатный dlarray с той же размерностью заказывают как входные данные.

Расширенные возможности

Введенный в R2019b