Слой Softplus для агента или сети критика
softplus слой применяет softplus функцию активации Y = журнал (1 + eX), который гарантирует, что выход всегда положителен. Эта функция активации является сглаженной непрерывной версией reluLayer
. Можно включить этот слой в глубокие нейронные сети, которые вы задаете для агентов в агентах обучения с подкреплением. Этот слой полезен для создания непрерывных Гауссовых глубоких нейронных сетей политики, для которых стандартное отклонение выход должен быть положительным.