Применить активацию выпрямленного линейного модуля
Операция активации выпрямленного линейного модуля (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение, меньше нуля, устанавливается в нуль.
Эта операция эквивалентна
Примечание
Эта функция применяет операцию ReLU к dlarray
данные. Если необходимо применить активацию ReLU в layerGraph
объект или Layer
массив, используйте следующий слой: