Экспоненциало линейного модуля (ELU)
Слой активации ELU выполняет операцию тождеств на положительных входах и экспоненциальную нелинейность на отрицательных входах.
Слой выполняет следующую операцию:
Значение по умолчанию α является 1. Задайте значение α для слоя путем установки Alpha свойство.
создает слой ELU.layer = eluLayer
создает слой ELU и задает layer = eluLayer(alpha)Alpha свойство.
[1] Клеверт, Джорк-Арне, Томас Унтертинер и Зепп Хохрейтер. «Быстрое и точное обучение в глубоких сетях путем экспоненциала линейных модулей (ELU)». arXiv preprint arXiv:1511.07289 (2015).
batchNormalizationLayer | clippedReluLayer | leakyReluLayer | reluLayer | swishLayer | trainNetwork