Слой Exponential linear unit (ELU)
Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах.
Слой выполняет следующую операцию:
Значение по умолчанию α равняется 1. Задайте значение α для слоя путем установки свойства Alpha.
layer = eluLayerlayer = eluLayer(alpha)layer = eluLayer(___,'Name',Name) создает слой ELU.layer = eluLayer
создает слой ELU и задает свойство layer = eluLayer(alpha)Alpha.
[1] Clevert, Djork-Arné, Томас Антертинер и Сепп Хокрейтер. "Быстрая и точная глубокая сеть, учащаяся экспоненциальными линейными модулями (ELUs)". arXiv предварительно распечатывают arXiv:1511.07289 (2015).
batchNormalizationLayer | clippedReluLayer | leakyReluLayer | reluLayer | trainNetwork