relu

Применить активацию выпрямленного линейного модуля

Синтаксис

Описание

Операция активации выпрямленного линейного модуля (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение, меньше нуля, устанавливается в нуль.

Эта операция эквивалентна

f(x)={x,x>00,x0.

Примечание

Эта функция применяет операцию ReLU к dlarray данные. Если необходимо применить активацию ReLU в layerGraph объект или Layer массив, используйте следующий слой:

пример

dlY = relu(dlX) вычисляет активацию ReLU входного dlX путем применения пороговой операции. Все значения в dlX которые меньше нуля, равны нулю.

Примеры

свернуть все

Используйте relu функция для установки отрицательных значений во входных данных в нуле.

Создайте входные данные как одно наблюдение случайных значений с высотой и шириной 12 и 32 канала.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Вычислите утечку активации ReLU.

dlY = relu(dlX);

Все отрицательные значения в dlX теперь установлено значение 0.

Входные параметры

свернуть все

Входные данные, заданные как dlarray с метками размерностей или без.

Типы данных: single | double

Выходные аргументы

свернуть все

Активации ReLU, возвращенные как dlarray. Область выхода dlY имеет тот же базовый тип данных, что и входной dlX.

Если входные данные dlX является форматированным dlarray, dlY имеет те же метки размерностей, что и dlX. Если входные данные не являются форматированным dlarray, dlY является неформатированным dlarray с тем же порядком размерности, что и входные данные.

Расширенные возможности

Введенный в R2019b
Для просмотра документации необходимо авторизоваться на сайте