Примените исправленную линейную модульную активацию
Исправленный линейный модуль (ReLU), операция активации выполняет нелинейную пороговую операцию, где любое входное значение меньше, чем нуль обнуляется.
Эта операция эквивалентна
Примечание
Эта функция применяет операцию ReLU к dlarray данные. Если вы хотите применить активацию ReLU в layerGraph объект или Layer массив, используйте следующий слой: