Примените исправленную линейную модульную активацию
Исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль обнуляется.
Эта операция эквивалентна
Примечание
Эта функция применяет операцию ReLU к dlarray
данные. Если вы хотите применить активацию ReLU в layerGraph
объект или Layer
массив, используйте следующий слой: