exponenta event banner

relu

Включить выпрямленный линейный блок

Синтаксис

Описание

Операция активации выпрямленного линейного блока (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение меньше нуля устанавливается равным нулю.

Эта операция эквивалентна

f (x) ={x,x>00,x≤0.

Примечание

Эта функция применяет операцию ReLU к dlarray данные. Если вы хотите применить активацию ReLU в layerGraph объект или Layer используйте следующий слой:

пример

dlY = relu(dlX) вычисляет активацию ReLU входа dlX применяя пороговую операцию. Все значения в dlX которые меньше нуля, устанавливаются равными нулю.

Примеры

свернуть все

Используйте relu для установки отрицательных значений во входных данных в нуль.

Создайте входные данные как единое наблюдение случайных значений с высотой и шириной 12 и 32 каналов.

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

Вычислите протекающую активацию ReLU.

dlY = relu(dlX);

Все отрицательные значения в dlX теперь имеют значение 0.

Входные аргументы

свернуть все

Входные данные, указанные как dlarray с метками размеров или без них.

Типы данных: single | double

Выходные аргументы

свернуть все

Активации ReLU, возвращенные как dlarray. Продукция dlY имеет тот же базовый тип данных, что и входной dlX.

Если входные данные dlX является отформатированным dlarray, dlY имеет те же метки размеров, что и dlX. Если входные данные не являются форматированными dlarray, dlY является неформатированным dlarray с тем же порядком размеров, что и входные данные.

Расширенные возможности

Представлен в R2019b