Примените текучую исправленную линейную модульную активацию
Текучий исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный масштабный коэффициент.
Эта операция эквивалентна
Примечание
Эта функция применяет текучую операцию ReLU к dlarray данные. Если вы хотите применить текучую активацию ReLU в layerGraph объект или Layer массив, используйте следующий слой: