relu

Примените исправленную линейную модульную активацию

Синтаксис

Описание

Исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль обнуляется.

Эта операция эквивалентна

f(x)={x,x>00,x0.

Примечание

Эта функция применяет операцию ReLU к dlarray данные. Если вы хотите применить активацию ReLU в layerGraph объект или Layer массив, используйте следующий слой:

пример

dlY = relu(dlX) вычисляет активацию ReLU входа dlX путем применения пороговой операции. Все значения в dlX это меньше, нуль обнуляются.

Примеры

свернуть все

Используйте relu функционируйте, чтобы установить отрицательные значения во входных данных, чтобы обнулить.

Создайте входные данные как одно наблюдение за случайными значениями с высотой и шириной 12 и 32 каналов.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Вычислите текучую активацию ReLU.

dlY = relu(dlX);

Все отрицательные величины в dlX теперь установлены в 0.

Входные параметры

свернуть все

Входные данные в виде отформатированного dlarray, бесформатный dlarray, или числовой массив.

Типы данных: single | double

Выходные аргументы

свернуть все

Активации ReLU, возвращенные как dlarray. Выход dlY имеет тот же базовый тип данных как вход dlX.

Если входные данные dlX отформатированный dlarray, dlY имеет тот же формат размерности как dlX. Если входными данными не является отформатированный dlarray, dlY бесформатный dlarray с той же размерностью заказывают как входные данные.

Расширенные возможности

Введенный в R2019b
Для просмотра документации необходимо авторизоваться на сайте