Мягкая макс. передаточная функция
A = softmax(N,FP)
softmax
является нейронной передаточной функцией. Передаточные функции вычисляют вывод слоя от его сетевого входа.
A = softmax(N,FP)
берет N
и дополнительные параметры функции,
N |
|
FP | Struct параметров функции (проигнорирован) |
и возвращает A
, S
-by-Q
матрица softmax конкурентоспособной функции применился к каждому столбцу N
.
возвращает информацию об этой функции. Следующие коды заданы: info = softmax('code')
softmax('name')
возвращает имя этой функции.
softmax('output',FP)
возвращает [min max]
область значений вывода.
softmax('active',FP)
возвращает [min max]
активный входной диапазон.
softmax('fullderiv')
возвращается 1 или 0, в зависимости от того, является ли dA_dN
S
-by-S-by-
Q
или S
-by-Q
.
softmax('fpnames')
возвращает имена параметров функции.
softmax('fpdefaults')
возвращает параметры функции по умолчанию.
Здесь вы задаете сетевой входной вектор N
, вычисляете вывод и строите обоих с гистограммами.
n = [0; 1; -0.5; 0.5]; a = softmax(n); subplot(2,1,1), bar(n), ylabel('n') subplot(2,1,2), bar(a), ylabel('a')
Присвойте эту передаточную функцию слою i
сети.
net.layers{i}.transferFcn = 'softmax';
a = softmax(n) = exp(n)/sum(exp(n))