Текучий слой Rectified Linear Unit (ReLU)
Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр.
Эта операция эквивалентна:
layer = leakyReluLayer
layer = leakyReluLayer(scale)
layer = leakyReluLayer(___,'Name',Name)
возвращает текучий слой ReLU.layer
= leakyReluLayer
возвращает текучий слой ReLU со скалярным множителем для отрицательных входных параметров, равных layer
= leakyReluLayer(scale
)scale
.
[1] Маас, Эндрю Л., Они И. Хэннун и Эндрю И. Ын. "Нелинейность выпрямителя улучшает нейронную сеть акустические модели". В материалах ICML, издание 30, № 1. 2013.