Применить негерметичное включение выпрямленного линейного модуля
Операция активации утечки выпрямленного линейного модуля (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение, меньше нуля, умножается на фиксированный масштабный коэффициент.
Эта операция эквивалентна
Примечание
Эта функция применяет утечку операции ReLU к dlarray
данные. Если вы хотите применить утечку активации ReLU в layerGraph
объект или Layer
массив, используйте следующий слой: