Применить негерметичное включение выпрямленного линейного модуля
Операция активации утечки выпрямленного линейного модуля (ReLU) выполняет нелинейную пороговую операцию, где любое входное значение, меньше нуля, умножается на фиксированный масштабный коэффициент.
Эта операция эквивалентна
Примечание
Эта функция применяет утечку операции ReLU к dlarray данные. Если вы хотите применить утечку активации ReLU в layerGraph объект или Layer массив, используйте следующий слой: