Слой Exponential linear unit (ELU)
Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах.
Слой выполняет следующую операцию:
Значение по умолчанию α равняется 1. Задайте значение α для слоя путем установки свойства Alpha
.
layer = eluLayer
layer = eluLayer(alpha)
layer = eluLayer(___,'Name',Name)
создает слой ELU.layer
= eluLayer
создает слой ELU и задает свойство layer
= eluLayer(alpha
)Alpha
.
[1] Clevert, Djork-Arné, Томас Антертинер и Сепп Хокрейтер. "Быстрая и точная глубокая сеть, учащаяся экспоненциальными линейными модулями (ELUs)". arXiv предварительно распечатывают arXiv:1511.07289 (2015).
batchNormalizationLayer
| clippedReluLayer
| leakyReluLayer
| reluLayer
| trainNetwork