Экспоненциало линейного модуля (ELU)
Слой активации ELU выполняет операцию тождеств на положительных входах и экспоненциальную нелинейность на отрицательных входах.
Слой выполняет следующую операцию:
Значение по умолчанию α является 1. Задайте значение α для слоя путем установки Alpha
свойство.
создает слой ELU.layer
= eluLayer
создает слой ELU и задает layer
= eluLayer(alpha
)Alpha
свойство.
[1] Клеверт, Джорк-Арне, Томас Унтертинер и Зепп Хохрейтер. «Быстрое и точное обучение в глубоких сетях путем экспоненциала линейных модулей (ELU)». arXiv preprint arXiv:1511.07289 (2015).
batchNormalizationLayer
| clippedReluLayer
| leakyReluLayer
| reluLayer
| swishLayer
| trainNetwork