Примените текучую исправленную линейную модульную активацию
Текучий исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный масштабный коэффициент.
Эта операция эквивалентна
Примечание
Эта функция применяет текучую операцию ReLU к dlarray
данные. Если вы хотите применить текучую активацию ReLU в layerGraph
объект или Layer
массив, используйте следующий слой: