Мягкая макс. передаточная функция
A = softmax(N,FP)
softmax
нейронная передаточная функция. Передаточные функции вычисляют выход слоя от его сетевого входа.
A = softmax(N,FP)
берет N
и дополнительные параметры функции,
N |
|
FP | Struct параметров функции (проигнорирован) |
и возвращает A
, S
- Q
матрица softmax конкурентоспособной функции применилась к каждому столбцу N
.
информация = softmax ('
возвращает информацию об этой функции. Следующие коды заданы: code
')
softmax('name')
возвращает имя этой функции.
softmax('output',FP)
возвращает [min max]
выведите область значений.
softmax('active',FP)
возвращает [min max]
активный входной диапазон.
softmax('fullderiv')
возвращается 1 или 0, в зависимости от ли dA_dN
S
- S
- Q
или S
- Q
.
softmax('fpnames')
возвращает имена параметров функции.
softmax('fpdefaults')
возвращает параметры функции по умолчанию.
Здесь вы задаете сетевой входной вектор N
, вычислите выход и постройте обоих со столбчатыми графиками.
n = [0; 1; -0.5; 0.5]; a = softmax(n); subplot(2,1,1), bar(n), ylabel('n') subplot(2,1,2), bar(a), ylabel('a')
Присвойте эту передаточную функцию слою i
из сети.
net.layers{i}.transferFcn = 'softmax';
a = softmax(n) = exp(n)/sum(exp(n))